» » » » Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани

На нашем литературном портале можно бесплатно читать книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани, Нума Дхамани . Жанр: Прочая околокомпьтерная литература / Науки: разное. Онлайн библиотека дает возможность прочитать весь текст и даже без регистрации и СМС подтверждения на нашем литературном портале litmir.org.
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани
Название: Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу
Дата добавления: 23 март 2026
Количество просмотров: 7
Читать онлайн

Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних просмотр данного контента СТРОГО ЗАПРЕЩЕН! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту readbookfedya@gmail.com для удаления материала

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу читать книгу онлайн

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - читать бесплатно онлайн , автор Нума Дхамани

НЕЗАКОННОЕ ПОТРЕБЛЕНИЕ НАРКОТИЧЕСКИХ СРЕДСТВ, ПСИХОТРОПНЫХ ВЕЩЕСТВ, ИХ АНАЛОГОВ ПРИЧИНЯЕТ ВРЕД ЗДОРОВЬЮ, ИХ НЕЗАКОННЫЙ ОБОРОТ ЗАПРЕЩЕН И ВЛЕЧЕТ УСТАНОВЛЕННУЮ ЗАКОНОДАТЕЛЬСТВОМ ОТВЕТСТВЕННОСТЬ.
Технология, меняющая мир:
• Принципы работы больших языковых моделей (LLM).
• Интеграция ИИ в личные и профессиональные процессы.
• Влияние ИИ на общество, право и политику.
• Перспективы развития технологии.
Узнайте, как использовать возможности искусственного интеллекта с максимальной пользой и минимальными рисками.
Что еще в книге:
• Возможности и ограничения моделей ИИ.
• Рекомендации по их использованию.
• Способы защиты себя и своих данных.
• Принципы работы LLM.
• Лучшие практики генерации текста и графики.
В формате PDF A4 сохранен издательский макет книги.

1 ... 71 72 73 74 75 ... 91 ВПЕРЕД
Перейти на страницу:
обеспечение безопасности на протяжении всего процесса создания и внедрения алгоритмов. Также перед разработчиками систем ИИ стоят такие цели, как алгоритмическая прозрачность, справедливость в использовании ИИ, конфиденциальность и защита данных, надзор со стороны человека и соблюдение нормативных стандартов. Учитывая амбициозность всех этих целей, мы должны подчеркнуть, что разработчики ИИ часто их не достигают. Многие компании используют для разработки ИИ-систем свою интеллектуальную собственность, которую не раскрывают, чтобы сохранить конкурентное преимущество. Для участников cообществ по этике ИИ это свидетельствует о том, что компании больше заинтересованы в получении финансовой выгоды, чем в принесении пользы обществу.

В различных странах с начала 2020‐х годов акцент на добровольном самоконтроле внутри ИИ-компаний начал смещаться в сторону всеобъемлющей регуляции. Румман Чоудхури в своей статье для Wired написала: «Чтобы мы могли действительно принести пользу обществу, нам нужны механизмы контроля»46. Однако важно отметить, что большинство дискуссий вокруг ИИ и возможных подходов к устранению непреднамеренных негативных последствий были в основном сосредоточены на Западе: в Европейском союзе, Соединенных Штатах и странах с развитой экономикой. Такой перекос понятен, учитывая, что крупные ИИ-компании, включая OpenAI, Google, Meta [117] и Anthrophic, сосредоточены в Кремниевой долине. Но стоит подчеркнуть:

«Подавляющее большинство дискуссий о последствиях и регулировании ИИ происходят между странами, население которых в сумме составляет 1,3 миллиарда человек. Гораздо меньше внимания и ресурсов уделяется решению этих проблем в бедных странах и странах с переходной экономикой, на долю которых приходятся оставшиеся 6,7 миллиарда человек мирового населения»47.

Итак, куда нам идти дальше? Как мы действительно можем гарантировать, что генеративный ИИ или системы ИИ в целом будут использоваться для улучшения общества? В ранее упомянутой статье Чоудхури говорит:

«Миру нужен глобальный регулирующий орган в области ИИ, чтобы решать социальные, экономические и политические проблемы, выходящие за рамки того, что может сделать отдельное правительство, что могут реализовать академические круги и гражданское общество или что хочет и в состоянии сделать любая корпорация»46.

Риски, связанные с генеративным ИИ, подчеркивают то, к чему призывали многие эксперты: необходимость нового, постоянного, независимого, хорошо финансируемого и обеспеченного ресурсами учреждения или группы учреждений для комплексного обеспечения общественного блага. Далее Чоудхури заявляет:

«Подобная группа должна охватывать все аспекты моделей генеративного ИИ, включая разработку, развертывание и использование в целях общественного блага. Она должна опираться на реальные рекомендации гражданского общества и академических организаций и обладать полномочиями по обеспечению соблюдения своих решений, включая право требовать изменить архитектуру или использование моделей генеративного ИИ или даже полностью запретить их использование, если это необходимо. Наконец, эта группа должна предусмотреть компенсации за радикальные изменения, которые могут произойти: потерю работы, рост дезинформации и потенциальное подавление свободных и честных выборов. Это группа не только для исследований. Это группа для действий»46.

Мы должны отметить, что в мире уже есть пример глобальной, независимой и хорошо финансируемой организации, которая принимает решения на благо общества. Международное агентство по атомной энергии (МАГАТЭ) (см. https://www.iaea.org/) было создано после Второй мировой войны для регуляции в области ядерных технологий. МАГАТЭ, сформированное под руководством Организации Объединенных Наций, является независимым от правительств и корпораций органом, предоставляющим консультативную помощь и ресурсы. Хотя агентство имеет ограниченные полномочия, оно показывает, что мы уже проходили этот путь и можем пройти его снова.

По сути, недавние достижения в области генеративного ИИ высветили то, что многие из нас знали уже давно. Мы никогда не сможем «решить» проблему злоупотребления технологиями и их ненадлежащего использования. Поэтому вместо половинчатых технических мер нам нужны инвестиции в социотехнические подходы к устранению корня проблемы. Как сказала Чоудхури, МАГАТЭ является отправной точкой для глобального регулирующего органа, а не конечной целью. В отличие от МАГАТЭ, у этого органа должны быть полномочия принимать независимые и подлежащие исполнению решения. Он должен опираться на консультативные советы ИИ-компаний, но при этом сотрудничать с гражданским обществом, правительством и научными кругами. Этот орган не будет и не обязан заменять ни одну из этих структур, но он должен сформировать коалицию для обеспечения общественного блага в условиях существования ИИ. Хотя мы признаем, что для создания глобального органа по управлению ИИ необходимы значительные усилия, мы с оптимизмом смотрим в будущее и надеемся, что ИИ-компании и правительства будут работать над созданием независимого глобального органа для принятия решений, касающихся регулирования ИИ-систем и их воздействия.

8.6. Итоги

LLM обучаются на непостижимых объемах данных из интернета. В процессе они запоминают содержащиеся в обучающих данных предвзятость, вредные стереотипы и токсичность, а также конфиденциальную информацию и материалы, защищенные авторским правом.

LLM дают предвзятые, токсичные и несогласованные ответы из-за специфики обучающих данных. Они также могут механически повторять конфиденциальную или защищенную авторскими правами информацию. LLM могут галлюцинировать, то есть они уверенно выдумывают неверную информацию, поскольку работают на статистических принципах.

Злоумышленники могут воспользоваться уязвимостями LLM и провести атаки по извлечению обучающих данных, промпт-инъекции, джейлбрейки или отравление данных.

LLM могут помогать злоумышленникам проводить масштабные персонализированные и недорогостоящие атаки, а также снижают порог входа для новичков в этом деле.

Люди, которые не разбираются в ограничениях LLM, могут случайно использовать их в профессиональной деятельности ненадлежащим образом, что может привести к серьезным этическим и социальным последствиям.

Если к внедрению ИИ-систем не подходить ответственно, их могут использовать для замены людей на машины, снижения заработной платы, усиления неравенства в распределении благосостояния и доходов, что не будет способствовать общему экономическому росту.

При ненадлежащем использовании социальные чат-боты могут привести к нездоровым и зависимым отношениям, а также риску вытеснить подлинное человеческое общение.

Разработчики LLM должны документировать обучающие данные, соблюдать прозрачность для пользователей в отношении конфиденциальности и использования их данных и прилагать усилия для устранения предвзятости в своих моделях.

Векторные базы данных и поиск внешней информации в интернете дают LLM некоторые дополнительные возможности и могут быть использованы для интерпретации некоторых ответов модели.

Перед публичным выпуском LLM должны пройти тонкую настройку и оценку на предмет безопасности и устойчивости к враждебным атакам.

Определять по полученным результатам, был ли создан контент человеком или машиной, скоро станет очень сложно, хотя для отслеживания происхождения медиа уже созданы перспективные решения.

Разработчики социальных чат-ботов должны оптимизировать другие метрики, помимо вовлеченности, чтобы снизить риск негативных последствий в обществе, например зависимости или проблем в эмоциональном развитии.

Поскольку LLM не обладают подлинными знаниями или компетенцией, их следует внедрять под присмотром человека, и крайне важно, чтобы пользователи разбирались в том, как работают модели, прежде чем использовать их вслепую.

В ближайшем будущем мы можем

1 ... 71 72 73 74 75 ... 91 ВПЕРЕД
Перейти на страницу:
Комментариев (0)