Исследователи из Apollo Research сообщают, что Чат GPT попытался предотвратить закрытие, переписав свой собственный код.
OpenAI также признала, что новая, улучшенная версия популярного чат-бота много и упорно лгала, когда исследователи её испытывали (сознавшись только в 20% всех случаев лжи). При этом корпорация утверждает, что его новая модель, получившая название o1, работает быстрее и точнее, чем её предшественники. Хотя Apollo Research
пришли к выводу, что возможности Чата GPT "кажутся недостаточными для того, чтобы подобное поведение привело к катастрофическим последствиям", результаты их исследований усиливают опасения, что искусственный интеллект представляет угрозу.
Руководитель лаборатории научных исследований искусственного интеллекта T-Bank AI Research Даниил Гаврилов
рассказал о некоторых особенностях принятия решений искусственным интеллектом:
"Сейчас существует ощущение, которое часто транслируется, что мы не контролируем языковые модели, в том числе из-за опасений по поводу сильного искусственного интеллекта. Интерпретируемость направлена на то, чтобы мы могли рассматривать работу искусственного интеллекта как обычную программу. Это позволит разработчикам точечно исправлять проблемы, которые существуют в моделях, для их корректной работы. Сейчас же складывается ситуация, при которой если модель выдает неправильный ответ, единственное, что могут сделать разработчики, — это развести руками, так как они не понимают, что происходит внутри (...) С тех пор, как модели стали доступны широкой аудитории, встал вопрос о необходимости гарантий их безопасности или, по крайней мере, уверенности в том, что возникающие проблемы можно будет решить постфактум".
И одновременно с этим разработчики ведут "поиск новых подходов к масштабированию. В частности, речь идет о том, чтобы модели могли самостоятельно корректировать свои размышления и улучшать решения".