Компания OpenAI выпустила отчёт, показывающий, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации и на большинстве профессиональных и академических экзаменов демонстрирует показатели человеческого уровня. Например, на смоделированном экзамене для адвокатов GPT-4 попал в 10 процентов лучших участников теста.
Другой пример -- способность обмануть соискателя работы. Бот, выдавая себя за живого агента, попросил человека на сайте вакансий TaskRabbit заполнить код проверки с помощью текстового сообщения. Когда человек спросил, был ли это был бот, ChatGPT солгал.
Опасность состоит не только в том, что нейросети ("искусственный интеллект") могут создавать убедительную дезинформацию и лгать, но и в том, что зависимость от модели может помешать развитию у людей новых навыков или даже привести к потере уже сформированных навыков.