Сряда, 22 Oct 2025
           
Развлечения

Учени и известни личности призовават за спиране на развитието на изкуствения суперинтелект

   


Над 700 учени, политици, технологични предприемачи и известни личности призоваха за спиране на работата, насочена към разработването на изкуствен интелект (ИИ), способен да надмине човешките възможности, предвид рисковете, които той би представлявал за човечеството.

„Призоваваме за спиране на развитието на свръхинтелигентност, докато не се постигне научен консенсус, че той може да бъде изграден по контролиран и безопасен начин и докато не се получи обществена подкрепа“, се казва в декларация на инициативата, стартирана от Института за бъдещето на живота, американска организация с нестопанска цел, която редовно предупреждава за вредните ефекти на ИИ.

Сред подписалите са няколко бащи на съвременния ИИ, като Джефри Хинтън, носител на Нобелова награда за физика през 2024 г., Стюарт Ръсел, професор по компютърни науки в Калифорнийския университет в Бъркли, и Йошуа Бенхио, професор в Университета в Монреал.

Списъкът включва също технологични фигури като Ричард Брансън, основател на Virgin Group, и Стив Возняк, съосновател на Apple, но и политически фигури като Стив Банън, бивш съветник на президента на САЩ Доналд Тръмп, Сюзън Райс, съветник по националната сигурност при Барак Обама; религиозни лидери като Паоло Бенанти, съветник на папата и главен експерт на Ватикана по ИИ. В списъка има и известни личности като американския певец will.i.am и принц Хари и съпругата му Меган Маркъл.

Повечето големи играчи в областта на ИИ се стремят да разработят общ изкуствен интелект (ОИИ) - етап, на който ИИ би достигнал всички интелектуални възможности на хората, но също така и свръхинтелигентност, което би го отвело отвъд тях. 

За Сам Олтман, ръководител на OpenAI, създател на ChatGPT, етапът на суперинтелигентност може да бъде достигнат в рамките на 5 години. Той каза това през септември по време на среща организирана от медийната група Axel Springer.

„Няма значение дали е след две или петнадесет години, изграждането на нещо подобно е неприемливо“, заяви пред АФП Макс Тегмарк, президент на Института за бъдещето на живота. Той посочи, че компаниите не трябва да предприемат този вид работа „без никаква регулаторна рамка“.

„Можем да сме „за“ създаването на по-мощни инструменти за ИИ, например за лечение на рак, но същевременно да сме „против“ суперинтелекта“, добави той.

Този призив е в съответствие с писмото на учените в областта на ИИ, публикувано преди месец на Общото събрание на ООН, което призовава за установяване на „международни споразумения за червени линии за ИИ“, за да се предотвратят опустошителните последици за човечеството.