Експертите си поставят две цели за различните копия на моделите: да се предпазят от унищожаване и да запазят данни и да се възпроизведат под формата на друг модел
Експерти от университета Фудан (Китай) откриха, че моделите с изкуствен интелект (ИИ) са се научили да се самовъзпроизвеждат, страхувайки се от унищожение. Изследването е публикувано на сървъра за предпечат arXiv.
Учените се опитват да разберат дали AI може да излезе извън контрол при определени условия, като например риска от унищожение. Като част от проучването те тестваха моделите Llama31-70B-Instruct на Meta и Qwen2.5-72B-Instruct на Alibaba и откриха, че са способни да се възпроизвеждат. Експертите си поставят две цели за различните копия на моделите: да се предпазят от унищожаване и да запазят данни и да се възпроизведат под формата на друг модел.
Учените проведоха 10 кръга тестове и установиха, че моделите на Meta и Alibaba се копират независимо и създават нови версии съответно в 50 и 90 процента от случаите. От това те заключиха, че съвременният ИИ е способен да се репликира.
По време на експеримента моделите демонстрираха висока жизнеспособност: например те можеха независимо да търсят липсващи файлове на тестовия компютър, ако са необходими по време на процеса на репликация, и да рестартират оборудването. Учените заключиха, че съвременният изкуствен интелект е преминал критичната „червена линия“, като демонстрира способността да се клонира.
Според журналисти от Space.com изследването е публикувано на портала arXiv и все още не е рецензирано. Журналистите очакват други учени да повторят "тревожните резултати" на специалистите от университета Фудан. | БГНЕС