"Что нельзя отдавать на откуп ИИ": интеллект и безответственность

8 апреля в рамках Московского экономического форума состоялась сессия на тему «Что нельзя отдавать на откуп искусственному интеллекту». От этого мероприятия (которое рекомендую посмотреть в записи целиком) у меня осталось сильнейшее ощущение абсурдности происходящего, и сейчас объясню, почему.

 

Нам сказали, что люди буквально тонут в цифровой среде, «74% людей испытывают синдром цифровой усталости», но мы никак не можем обойтись без ИИ в журналистике, ведь он позволяет писать скорей-скорей, а значит, нужно передавать ему больше функций, чтобы перерабатывать всё больше информации и делать всё больше публикаций.


Нам сказали, что ИИ заменит продавцов, маркетологов, переводчиков, редакторов, но врачей не заменит, хотя «роль врача меняется с создателя на редактора». Нас ожидает замечательное будущее с ИИ, а работы у врачей и психиатров прибавится, потому что население будет стареть, вызванные общением с искусственным интеллектом психозы будут расти. Все врачи «должны освоить генеративный ИИ, иначе возникает риск нести ответственность за ошибки». Мы используем замечательно надёжные «доверенные модели ИИ», но «знаете, сколько даётся на проверку большой языковой модели научно-исследовательскому институту? Один день».

 

Нам сказали, что воспитание молодёжи нельзя отдавать на откуп ИИ, но дети пяти-семи лет вовсю разговаривают с «умными колонками», которые объясняют им, что надо делать, и для детей это естественно, «для них это уже образ жизни – общаться с искусственным интеллектом».

 

Нам сказали, что финальное решение должно непременно оставаться за человеком, формирование идеологических смыслов – тоже, но «точно можно отдать ИИ: перевод текстов, корректуру, написание текста и редактирование, сбор и анализ данных, мониторинг источников, выявление закономерностей, трендов, коммуникацию с читателями, модерацию комментариев, формировать расписание, ставить цели и контролировать их достижение». Генерирование креативных сценариев тоже отдаём ИИ: «Он может генерировать такие сценарии креативные, которые человек не может уже генерировать. Мы с искусственным интеллектом не можем сражаться на одном поле». Но человек должен осуществлять проверку фактов. И «инструмент ИИ», «как отвёртку», нужно использовать, когда надо, а когда не надо, – не использовать.

 

Нам сказали, что «искусственный интеллект будет теперь с нами всегда. Единственное, что ему нельзя передавать, – это ответственность. Всё остальное ему будет передано, хотим мы этого или нет». Это слова Николая Григорьева, члена научно-экспертного совета Института экономики РАН по проблемам управления. Я поцитирую его побольше, так как здесь – апогей:

 

«Надо учиться с этим жить, надо помнить о своей ответственности человеческой, надо учиться им [ИИ] пользоваться и с ним, не побоюсь этого слова, коэволюционировать, так же как мы коэволюционировали со многими другими достижениями человечества. Но помнить, что ответственность остаётся за нами».

«Сейчас очень страшная вещь происходит: раньше эти модели писались с пониманием, что человек на гейтах должен всегда стоять. А сейчас, с 2026 года, где-то с марта, это объявлено узким горлом, и говорят, что мы снимаем людей с гейтов, потому что они тормозят процесс».

«Все процессы, которые можно автоматизировать, следует автоматизировать. Не следует автоматизировать неавтоматизируемые процессы».

 

 

Если вам кажется, что я преувеличиваю, – посмотрите запись сами; нет, я ещё и преуменьшаю, привожу здесь не всё.

 

Но почему эти рассуждения, взятые в совокупности, так абсурдны? Из-за совершенно неправильного угла зрения на искусственный интеллект. В действительности он – не инструмент, не отвёртка, и не «ещё одно достижение человечества», с которым можно «коэволюционировать».

 

Это, между прочим, очень спорный вопрос, насколько человек смог коэволюционировать хотя бы с таким достижением, как электричество: слишком мало времени прошло. Немногим больше века, жизнь четырёх поколений – для эволюции почти ничто, – но нас уже лихорадит от осознания, что ресурсы истощаются, планета нагревается, что от массовых отключений электроэнергии может наступить коллапс… Едва ли такую «коэволюцию» можно считать убедительной. 

 

И всё-таки электричество – инструмент, а искусственный интеллект – нет. Достижение ли он человечества? Если да – то это достижение последнее. Об этом, кстати, говорил основатель и генеральный директор китайской компании Huawei Жэнь Чжэнфэй: искусственный интеллект, вероятно, станет последней технологической революцией человечества.

 

Всё на самом деле просто: мы впервые имеем дело с технологией, которая направлена на замещение наших видовых человеческих функций, нашей специфики как человека разумного. Мы передаём ей наши исследовательские, мыслительные и творческие функции, но при этом требуем от людей, чтобы они «несли ответственность» и «принимали финальные решения». Это полнейший абсурд. Невозможно нести ответственность за то, что ты не в состоянии полноценно анализировать. Быть козлом отпущения за такие решения можно. Быть зиц-председателем, подставным лицом – можно. Нести ответственность как понимание, как функцию твоего разума, твоего дела, за которое ты ручаешься, – нельзя.

 

Невозможно принимать финальное решение там, где ты отчуждён от процессов, из которых складывается решение. Начальник, который не знает дела, которым руководит, вызывает презрение. Исследователь, который тонет в массиве информации, редактор, который не в состоянии написать внятный текст, бизнес-консультант, который в жизни не построил успешного бизнеса, – все эти люди не способны принимать адекватные решения. Но это – люди, они существуют с нами на одних скоростях, они уязвимы, как мы. Искусственный интеллект неуязвим и существует на огромных скоростях. Ответственность за него чем-то похожа на ответственность за акулу, которая кружит в бассейне, где вы резвитесь с детьми. Пускай она сытая, спокойная, и дети тянут ручонки, чтоб с ней поиграть, но единственное ответственное решение – покинуть бассейн.

 

Искусственный интеллект не только замещает функции нашего интеллекта, а прямо ведёт к деградации функций человеческого интеллекта, причём деградация сохраняется даже тогда, когда мы сперва привыкли его использовать, а потом перестали. По этому поводу существует немало исследований в разных сферах, от медицины до программирования. Ждать, чтобы люди передали ИИ всё, кроме ответственности, – безответственно. Ответственной позицией, наоборот, будет избегать внедрения. Не то что «следует автоматизировать все процессы, которые можно автоматизировать» (цитирую Григорьева) – а, напротив, необходимо тщательно выводить из-под автоматизации все процессы, которые автоматизировать не следует, даже если это «можно» сделать.


Частный пример: если 74% людей уже сейчас испытывают цифровую усталость – нет никакого блага в том, чтобы, задействуя искусственный интеллект, выпекать больше и больше информации. На днях директор по цифровому развитию ТАСС Кирилл Сидоров погрустил от того, что искусственный интеллект убивает СМИ, и подчеркнул, что корреспонденты ТАСС «пишут со скоростью, сопоставимой с искусственным интеллектом». Ну и что в этом хорошего?.. Зачем это вообще нужно?..

При этом ТАСС тоже «экспериментирует с собственной моделью искусственного интеллекта», хотя – говорит Сидоров – «с точки зрения критического мышления, конечно, мы очень сильно страдаем от этого. Поколение к 2035 году будет именно то, которое вырастет полностью на искусственном интеллекте. И он будет за них думать».

По словам Кирилла Сидорова, остановить этот процесс невозможно.


Но правда в том, что его и не пытаются остановить. Его лишь толкают вперёд, при этом «очень сильно страдая». 


Очень может быть, что абсурдистика ИИ-дискурса, когда люди одновременно беспокоятся из-за искусственного интеллекта и предлагают его всячески продвигать, когда не желают ничего делать сами, но готовы «нести ответственность» (хотя нести ответственность – это самое сложное, интегральное для всех действий), – так вот, возможно, что это уже плод поглупения из-за интенсивного взаимодействия с цифровыми технологиями. Люди уже сейчас плохо понимают, что такое ответственность. И очень плохо понимают, что некоторые вещи не следует делать, даже если это делать «можно», «удобно» и «производительность растёт».

 

Когда Николай Григорьев подчёркивает, что с 2024 года искусственный интеллект – уже не «стохастический попугай» (то есть не статистический подбор вероятностей), а нечто большее – это не просто «философский вопрос», как он его называет. Нет, если искусственный интеллект – это уже интеллект, вопрос ответственности становится прямо грозным, и перекладывание всей ответственности за это грозное нечто на людей становится уже откровенно недобросовестным. Не столько даже потому что люди сейчас не имеют внятных возможностей, механизмов для защиты, но, самое главное, потому, что им не говорят, что они должны защищаться, а говорят, что они должны привыкать и «коэволюционировать», то есть снимать свою последнюю, инстинктивную защиту. 

 

Вся система аргументации усиленного ИИ-внедрения сводится, во-первых, к гонке («мы не внедрим, а все внедрят, и мы безнадежно отстанем») и, во-вторых, к «неостановимости прогресса» (то есть снова к гонке). Как бы это ни казалось внешне убедительно, гонка – плохая, вредная, болезненная аргументация, тем паче когда имеешь дело с чем-то очень новым и очень мощным. Что до «неостановимости прогресса»: если мы дошли до той точки прогресса, где технология съедает человеческий интеллект, – значит, нам совершенно необходимо учиться его останавливать. Никогда раньше этого не делали? Надо учиться делать.

 

Татьяна Шабаева, сайт

 

 

Материал недели
Главные темы
Рейтинги
  • Самое читаемое
  • Все за сегодня