Специалисты корпорации "Майкрософт" оценили риски безопасности пользователей, связанные с генеративным искусственным интеллектом, и пришли к выводу, что ИИ «никогда не будет полностью безопасным», что большие языковые модели (LLM) усиливают существующие риски безопасности и создают новые. Например, если обучать LLM на основе ошибочных или конфиденциальных данных, то модель будет распространять эту информацию среди пользователей. Также они назвали потенциальный вред от ИИ труднооценимым.
В качестве одного из выводов исследования отмечено, что человеческий фактор в процессе обучения ИИ всегда будет решающим. "Также в работе с искусственным интеллектом необходимы предметная экспертиза, культурная компетентность и эмоциональный интеллект".
Несколькими днями ранее специалисты Швейцарской бизнес-школы отметили, что в долгосрочной перспективе ИИ будет неизбежно влиять на снижение когнитивных функций и уровня критического мышления в обществе. В рамках исследования респондентов разделили на три возрастные группы — 17–25 лет, 26–45 лет, 46 лет и старше. Статистический анализ продемонстрировал значительную отрицательную корреляцию между использованием инструментов ИИ и показателями критического мышления. Чем чаще опрашиваемые использовали ИИ, тем меньше критически оценивали информацию.
Главным профессиональным навыком 2024 года российские студенты и выпускники университетов назвали работу с искусственным интеллектом и нейросетями, сообщается в пресс-релизе VK Education. «"Профессиональным навыком года" респонденты назвали взаимодействие с ИИ и нейросетями — его в 2024 году освоили лучше других компетенций 23 процента опрошенных студентов и выпускников», — показали результаты опроса.