Генеральная ассамблея ООН приняла резолюцию, направленную на регулирование и обеспечение безопасности сферы искусственного интеллекта. За принятие документа, представленного США в соавторстве с более чем ста странами, выступили все 193 государства ГА ООН. В резолюции «подчеркивается, что никто не должен использовать ИИ, чтобы подрывать мир или подавлять права человека». Документ также призывает мировое сообщество «сосредоточиться на наращивании нашего потенциала и сократить цифровой разрыв в странах и между ними, чтобы все могли пользоваться преимуществами ИИ», а создателей технологии -- «ответственно подходить к разработке и запуску новых возможностей и искоренять проявления предвзятости и дискриминации в системах ИИ».
Специалисты Государственного университета Северной Каролины (США) считают, что научили модель искусственного интеллекта различать правду и ложь. По словам соавтора научной работы Мехмета Джанера, связанные с финансами компании часто использует различные автоматизированные программы -- например, определяют, какие условия ипотечного кредита выбрать для клиента, или выявляют стоимость страховки. Однако люди, получающие услуги, могу лгать ради денежной выгоды, и предполагается, что ИИ выведет их на чистую воду.
"Лента" пишет:
Специалисты университета создали новые параметры обучения для ИИ-моделей, которые позволяли делать прогнозы и учитывать экономические стимулы в поведении человека. Зная, какую выгоду ищет конкретный клиент, можно предсказать обстоятельства, при которых он будет говорить неправду.
В тестах ИИ действительно смог выявить ложь среди участников исследования. Однако, по словам Джанера, искусственный интеллект может пропустить так называемую маленькую ложь, когда человек утаивает или приукрашивает какую-либо информацию. В будущем специалисты организации займутся улучшением способа обучения ИИ.