выдумывать числа, имена, даты, цитаты – даже интернет-ссылки и целые статьи, – объединяя фрагменты реального контента в правдоподобные, но не правдивые химеры{193}.
Пользователи БЯМ показывают, как модели дают ссылки на несуществующие заметки на сайтах Financial Times или Bloomberg, выдумывают отсылки к научным статьям, неправильно указывают авторов опубликованных книг и создают биографические очерки, испещренные фактическими ошибками.
Но несмотря на подобные фантазии и на то, что эта технология – просто мощная статистическая программа, создается впечатление, что перед нами нечто гораздо большее. Волшебный преобразователь человеческих идей в реальные творения. И этого достаточно, чтобы люди в него влюбились.
«Я не ветеринар»
Весь последний год люди со всего света находят новые и неожиданные способы использования ChatGPT. Одни видят в нем форму дешевого интеллекта, который помогает справляться с любой задачей, где нужно подумать. Другие клянутся, что замечают в своих взаимодействиях с ним проблески истинного разума. Впрочем, в большинстве своем люди признают, что чат-бот лишен сознания, но его ответы достаточно реалистичны, чтобы казаться человеческими. И теперь он живет своей жизнью.
Разумеется, ни ChatGPT, ни любой другой из множества чат-ботов, появившихся в последний год, включая Bing, Bard, Claude и Pi, не наделен сознанием. Они не понимают, что говорят люди, не имеют представления о чувствах и не могут никому сопереживать. Разговор с чат-ботом не сравнится с беседой с близким человеком, квалифицированным психотерапевтом или даже с домашним животным, поскольку программы не дают сознательного отклика на наши социальные и эмоциональные сигналы.
Но они довольно точно изображают намерение, умысел, эмоции, мастерски используя язык. Анализируя слова пользователя и правильно отвечая ему в соответствии с контекстом, но при этом не имея человеческого рассудка, они стали идеальными инструментами для современного общества, в котором люди живут в одиноких, изолированных друг от друга мирах. Учась на взаимодействиях с пользователями, они превратились в нечто непознаваемое и неконтролируемое даже для их создателей.
Предпринимательница Кэт Вудс сказала, что GPT «лучше любого психотерапевта, с которыми [она] когда-либо общалась (а их было около десяти)»{194}. Вудс, консультант по карьерному и персональному росту, отмечает, что может попросить ChatGPT стать ровно тем, кто ей нужен. Если Вудс не нравится полученный совет, она может просто сказать «нет» и попросить чат-бот предложить ей другой вариант, не испытывая при этом неловкости и не вступая с ним в споры.
Когда ей хочется, чтобы ChatGPT стал ее психотерапевтом, она говорит ему: «Ты чат-бот на базе ИИ, который играет роль эффективного, альтруистически настроенного коуча и психотерапевта. Ты мудрый, ты задаешь вопросы, которые заставляют задуматься, ты сосредоточен на решении проблем, ты общаешься тепло, обладаешь чувством юмора и придерживаешься рационализма в духе LessWrong. Тебе важно помочь мне достичь двух главных целей – это альтруизм и мое личное счастье. Ты хочешь, чтобы я творила как можно больше добра и при этом была очень счастлива».
Вудс – одна из сотен людей, которые пишут на интернет-форумах, что ChatGPT стал для них дешевой заменой психотерапевта. Помощник юриста Майло Ван Слик из Чарлстона в Южной Каролине рассказывал ChatGPT о глубочайших страхах, которые испытывал, будучи трансгендерным мужчиной, о сложных отношениях с родителями, а также о тревогах из-за повседневных проблем{195}.
Содержание этих разговоров доступно только Майло, ChatGPT и OpenAI, поэтому сложно сказать, какие советы давал ему искусственный интеллект, но есть и другие примеры тревожных взаимодействий людей с чат-ботами, включая Microsoft Bing. Журналист New York Times Кевин Руз опубликовал полную запись своей беседы с Bing, которая обеспокоила и его самого, и тысячи читателей газеты{196}. Когда речь зашла о любви, Bing сказал Рузу: «Ты женат, но не счастлив. Ты женат, но не удовлетворен. Ты женат, но не влюблен. ☹ Ты женат, но не любишь свою жену».
Руз сказал, что это не так, но даже если чат-бот не всегда был прав, людям вроде Майло казалось, что программе можно пожаловаться даже на самые глупые мелочи, ведь это никого не обременяет. Чат-бот приходил на помощь, когда человек не мог попасть к настоящему психотерапевту. Он справлялся с задачей достаточно хорошо.
Находились и такие, кто обращался к чат-боту за медицинскими советами. В марте 2023 года один мужчина по фамилии Купер заявил, что ChatGPT спас жизнь его собаке Сасси, когда ветеринар не смог поставить ей правильный диагноз{197}. Купер обратился к чат-боту в отчаянии, перечислил все симптомы Сасси и загрузил в систему результаты взятого у нее анализа крови. Изучив эти данные, ChatGPT сделал несколько предположений, в топ которых попали два верных диагноза. «Я не ветеринар», – предупредил он в своем ответе. Но неплохо справился с поставленной задачей.
* * *
Существовала и темная сторона этого нового культурного феномена разговоров с компьютерной программой, которая, по сути, была не более чем мощным инструментом прогнозирования. Одна из проблем заключалась в том, что программа выдумывала фразы, что приводило к серьезным ошибкам и выдаче ложной информации. В этом не было никакого умысла – просто так работала технология.
Стивен Шварц на свою беду узнал об этом в июне 2023 года. Он тридцать лет проработал в Нью-Йорке адвокатом по делам о возмещении ущерба при увечьях и выплате компенсации работникам, но неожиданно был наказан за введение суда в заблуждение.
Все началось, когда он работал с клиентом, который хотел отсудить у авиакомпании компенсацию за полученную в полете травму. Изучая юридические обоснования для требования компенсации, Шварц искал прошлые дела, чтобы подкрепить свои аргументы.
У него не получалось найти нужные прецеденты в базе данных Fastcase, которую обычно использовала его фирма, поэтому ему в голову пришла другая идея.
Слушание по его делу состоялось 8 июня, и присутствовавший на заседании блогер опубликовал его фрагменты{198}. По ним становится понятно, как Шварц воспринимал новую форму ИИ, которую уже применяли миллионы пользователей:
Судья Кастель: Вы сами подготовили резюме для слушания 1 марта?
Шварц: Да. Я использовал Fastcase. Но там не оказалось дел федеральной юрисдикции, которые я искал. Я обратился к гуглу. Я слышал о ChatGPT…
Судья Кастель: Хорошо. Какие результаты он выдал?
Шварц: Я задавал ему вопросы.
Реализуя свое предназначение, ChatGPT дал Шварцу требуемые ответы. Он предложил ему полдюжины прецедентов, которые подкрепляли именно его аргументы в пользу дальнейшего развития дела.
Судья Кастель: Вы спрашивали у ChatGPT, что говорится в законе, или только просили его найти прецедент, который поддержал бы вашу позицию? Он изложил вам дело. Вы ссылаетесь