Ученые Университета штата Нью-Йорк, Университета медицинских наук Даунстейта, а также Нью-Йоркского медицинского центра Вейла Корнелла выяснили, что нейросети, такие как ChatGPT, могут составлять "научные работы" с ложными данными, несуществующими участниками клинических испытаний и бессмысленными результатами, которые очень трудно отличить от написанных человеком.
Людям-экспертам предложили рассмотреть как созданные человеком, так и созданные искусственным интеллектом (ИИ) тексты. Эксперты ошибочно идентифицировали 32% тезисов исследований, сгенерированных языковой моделью, и 14% тезисов, написанных людьми.
Также сфабрикованные тексты были проверены на трех онлайн-детекторах текстов, написанных ИИ, и сперва в подавляющем большинстве случаев тезисы были идентифицированы как созданные языковой моделью. Но потом специалисты прогнали тексты через онлайн-инструмент перефразирования на базе ИИ, и те же тезисы были распознаны уже как созданные человеком.
Нейросеть способна сфабриковать "научную статью" по заданным параметрам за считанные минуты, что значительно упрощает создание подлогов. Ранее уже было показано, как это работает при написании проповедей.