» » » » Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

На нашем литературном портале можно бесплатно читать книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани, Нума Дхамани . Жанр: Прочая околокомпьтерная литература / Науки: разное. Онлайн библиотека дает возможность прочитать весь текст и даже без регистрации и СМС подтверждения на нашем литературном портале litmir.org.
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани
Название: Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу
Дата добавления: 23 март 2026
Количество просмотров: 7
Читать онлайн

Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних просмотр данного контента СТРОГО ЗАПРЕЩЕН! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту readbookfedya@gmail.com для удаления материала

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу читать книгу онлайн

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - читать бесплатно онлайн , автор Нума Дхамани

НЕЗАКОННОЕ ПОТРЕБЛЕНИЕ НАРКОТИЧЕСКИХ СРЕДСТВ, ПСИХОТРОПНЫХ ВЕЩЕСТВ, ИХ АНАЛОГОВ ПРИЧИНЯЕТ ВРЕД ЗДОРОВЬЮ, ИХ НЕЗАКОННЫЙ ОБОРОТ ЗАПРЕЩЕН И ВЛЕЧЕТ УСТАНОВЛЕННУЮ ЗАКОНОДАТЕЛЬСТВОМ ОТВЕТСТВЕННОСТЬ.
Технология, меняющая мир:
• Принципы работы больших языковых моделей (LLM).
• Интеграция ИИ в личные и профессиональные процессы.
• Влияние ИИ на общество, право и политику.
• Перспективы развития технологии.
Узнайте, как использовать возможности искусственного интеллекта с максимальной пользой и минимальными рисками.
Что еще в книге:
• Возможности и ограничения моделей ИИ.
• Рекомендации по их использованию.
• Способы защиты себя и своих данных.
• Принципы работы LLM.
• Лучшие практики генерации текста и графики.
В формате PDF A4 сохранен издательский макет книги.

1 ... 67 68 69 70 71 ... 91 ВПЕРЕД
Перейти на страницу:
оценил, насколько серьезными были обязательства. Основная критика Руза была направлена на то, что перечисленные принципы являются расплывчатыми и не уточняют, какие виды тестирования и отчетности должны проводиться, что оставляет много места для свободной интерпретации. Он заключил:

«В целом договоренность Белого дома с компаниями, занимающимися разработкой ИИ, носит скорее символический, нежели практический характер. Не существует механизма обеспечения соблюдения компаниями этих обязательств, и многие из них отражают меры предосторожности, которые компании, занимающиеся ИИ, уже используют в работе. Но все же это разумный первый шаг. И готовность следовать подобным правилам говорит о том, что ИИ-компании уже извлекли уроки из неудач более ранних технологических корпораций, которые начали взаимодействовать с правительством только после того, как попали в беду»29.

Действительно, некоторые из обязательств, судя по всему, продиктованы непосредственно событиями прошлого. Второй принцип – создание систем, где защита ставится на первое место, – конкретно касается защиты «проприетарных и неопубликованных весов модели». Как описано в главе 1, весовые коэффициенты (веса) в LLM – конечный продукт ее обучения. Доступ к весам позволяет успешно воспроизвести всю модель. Всего через несколько дней после выпуска LLaMA произошла утечка, и веса модели были опубликованы на 4chan, после чего пользователи сайта смогли быстро создать высококачественную LLM на базе LLaMA. Заметим, что соглашение не регулирует модели с открытым исходным кодом.

Рис. 8.5. Три основных принципа добровольных обязательств, которые взяли на себя ведущие ИИ-компании перед Белым домом

Эти принципы касаются именно генеративного ИИ, но другие государственные органы уже давно обеспокоены потенциальными негативными последствиями работы более ранних систем ИИ, особенно тех проблем, которые связаны с предвзятостью и прозрачностью. Например, Комиссия по равным возможностям трудоустройства (Equal Employment Opportunity Commission, EEOC) выпустила руководство о том, как Закон о гражданских правах 1964 года следует применять к автоматизированным системам на основе ИИ, которые используются в работе кадровых служб, таким как просмотр резюме, отбор кандидатов и мониторинг эффективности работы. По сути, ведомство заявило, что бремя соблюдения требований ляжет на работодателей, которые используют эти инструменты, и порекомендовало проверять, что модели не приводят к «существенно более низкому коэффициенту отбора для лиц с характеристиками, защищенными разделом VII», такими как лица определенной расы или пола30. Федеральная торговая комиссия (Federal Trade Commission, FTC) также показала стремление к надзору за автоматизированным процессом принятия решений, написав в своем блоге от 2021 года, что Закон FTC, который запрещает «недобросовестную или вводящую в заблуждение практику», будет однозначно применяться к продаже или использованию алгоритмов с расовой предвзятостью. Не только модели для кадровых служб, но и модели для принятия решений по жилью, кредитам и страхованию должны стать предметом проверки в соответствии с Законом о добросовестной кредитной отчетности (см. http://mng.bz/JgKQ). В 2019 году правительство Канады выпустило Директиву об автоматизированном принятии решений, в которой также была приведена оценка негативных последствий работы автоматизированных систем (см. http://mng.bz/mVn0). Хотя модели генеративного ИИ не были предметом этих документов, они бы тоже подверглись тщательной проверке, если бы использовались в любой из вышеперечисленных областей.

Вслед за закреплением добровольных обязательств в октябре 2023 года Белый дом выпустил предписывающее постановление по ИИ, требующее от ИИ-компаний делиться оценками безопасности и прочей информацией с правительством и принять меры предосторожности против использования LLM для создания «опасных биологических материалов» и проведения «мошенничества и дезинформации» (см. http://mng.bz/6nM5). Администрация Байдена также опубликовала абстрактные правила разработки искусственного интеллекта. Возможно, знаковым документом по этой теме является Проект билля о правах в области ИИ, который был составлен Управлением научно-технической политики Белого дома (White House Office of Science and Technology Policy, OSTP) (см. http://mng.bz/wv8g). Как показано на рис. 8.6, в основе этого документа лежат пять принципов: «безопасные и эффективные системы» – здесь излагаются стандарты оценки и меры снижения рисков; «защита от дискриминации в алгоритмах» – выявление потенциальной предвзятости в модели или системе; «конфиденциальность данных» – право пользователей знать, как собираются данные о них, и иметь свободу выбора в отношении этого; «уведомления и разъяснения» об использовании автоматизированных систем; «альтернативы, связанные с человеком, и резервные меры» для случаев, когда приходится отказываться от автоматизированных систем или нужно исправить ошибки, допущенные системой. Поскольку эти принципы по работе с ИИ более современны, они относительно непротиворечивы, но все же достаточно расплывчаты, чтобы оставить некоторую неопределенность в отношении того, как каждый из них может применяться на практике. Билль о правах в области ИИ – скорее задающий ориентиры документ, чем директива, а OSTP – орган, формирующий общую политику. Детали реализации такого принципа, как «разъяснения» («автоматизированные системы должны снабжаться пояснениями, которые являются технически обоснованными, значимыми и полезными для вас и любых операторов или тех, кто должен разобраться в работе системы и учитывать возможные риски в зависимости от контекста»), предстоит еще доработать. Наиболее удачной среди регулирующих инициатив государственных ведомств США оказалась Система управления рисками (AI Risk Management Framework, AI RMF), разработанная Национальным институтом стандартов и технологий, которая была опубликована 26 января 2023 года, но даже эта система является довольно общей и пространной, поэтому может служить только в качестве отправной точки. В документе AI RMF подробно описывается, что ИИ-системы должны быть «достоверными и надежными», «безопасными», «защищенными и устойчивыми к атакам», «контролируемыми и прозрачными», «объяснимыми и интерпретируемыми», «справедливыми, без вредных предубеждений», но как всего это добиться – читатели должны догадаться сами31.

Рис. 8.6. Пять принципов, перечисленные в Проекте билля о правах в области ИИ (см. http://mng. bz/wv8g)

В последние годы политики проявляли двойственное отношение к регулированию деятельности ИИ-компаний. С одной стороны, такие представители власти, как конгрессмен-республиканец из Висконсина Майк Галлахер, надеялись избежать подавления инноваций технологических компаний. «Сложность заключается в том, что мы не хотим чрезмерным регулированием свести на нет наше преимущество в гонке ИИ», – сказал Галлахер, выступая за «точечный, целенаправленный» подход, а не за всеобъемлющий. «Конгресс редко добивается успеха во всеобъемлющих мерах»32. С другой стороны, как свидетельствует слушание cудебного подкомитета Сената, о котором мы говорили в главе 5, изрядное количество его членов обеспокоены тем, что текущее состояние саморегуляции будет недостаточным, а некоторые выразили готовность принять всеобъемлющее законодательство в области ИИ. Представитель Калифорнии Ро Ханна сказала:

«В широком смысле нам нужно обеспечить участие человека в какой-то форме в процессах принятия решений. Нам требуется некоторая степень прозрачности в вопросах понимания того, для чего используется ИИ и какие датасеты применяются. Также необходимо проведение оценки безопасности… Но я думаю, что эти детали должны проработать люди, хорошо разбирающиеся в таких вопросах»32.

Возможно, что некоторые меры управления, предложенные в соответствии с принципами Билля о

1 ... 67 68 69 70 71 ... 91 ВПЕРЕД
Перейти на страницу:
Комментариев (0)