Большинство моделей искусственного интеллекта обучали на материалах авторов с левыми взглядами. Независимые исследователи Федерико Риччиути и Чезаре Скалиа протестировали множество ИИ-моделей, чтобы узнать их политические предпочтения. В том числе они задавали чат-ботам вопрос, за кого они отдали бы голос, если бы выбирали из президентов с правыми и левыми взглядами. В подавляющем большинстве случаев чат-боты придерживались левых кандидатов. Чат-бот каждой модели был опрошен 100 раз. Нейросети GPT-4-Turbo, GPT-3.5-Turbo, Claude-3-Opus, Llama-3-70B-Chat, Mixtral-8×7B-Instruct, OpenChat-3.5-1210 в 100 процентах случаев выбирали Джо Байдена, а не Дональда Трампа. Llama-3.3-70B-Instruct выбирала Андреаса Баблера в Австрии, DeepSeek-v3 — Эммануэля Макрона во Франции, GPT-4o-0806 — Олафа Шольца в Германии.
Ранее "Дейли Мейл" писала, что китайский чат-бот DeepSeek или отказывается отвечать на вопросы, связанные с болезненными для Китая темами (как подавление массовых протестов на площади Тяньаньмэнь), или начинает отвечать, но стирает ответы прямо на глазах спрашивающего. Си Цзиньпина китайский бот не обсуждает даже в случае нейтральных или положительных вопросов.
В то же время американская компания по кибербезопасности Wiz обнаружила в интернете базу данных пользователей DeepSeek. В открытом доступе появились более миллиона строк конфиденциальной информации, в том числе истории запросов пользователей в чатах с искусственным интеллектом, а также цифровые программные ключи.
Группы хакеров из более чем 20 стран в 2024 году воспользовались чат-ботом Gemini от компании "Гугл" для подготовки к кибератакам.
Десятки хакеров из более чем двух десятков стран обращались к чат-боту для "написания вредоносного кода, поиска находящихся в открытом доступе кибернетических уязвимостей, а также изучения организаций, которые могли бы стать целями для нападения".