Это продолжение перевода книги Томас и др. Создание бизнес-ценности с генеративным ИИ. Мы придумали это название главы в стиле доктора Сьюза, потому что оно, как нам кажется, идеально передает причудливый и становящийся все более сложным мир, который раскрывается перед нами с каждой неделей. Признаем, наш выбор названия может показаться немного чересчур — а может, наоборот, в самый раз — но он здесь для того, чтобы привлечь ваше внимание. В этой главе мы приоткроем завесу над постоянно развивающимся ландшафтом управления и ИИ: куда все движется, над чем стоит задуматься и почему это важно.
Скачать заметку в формате Word или pdf
Предыдущая глава Содержание Следующая глава
Возможно, это прозвучит как дежавю из предыдущей главы, но мы повторим — по теме этой главы можно было бы (и, вероятно, уже было) написать целые книги. Естественно, мы не сможем охватить здесь каждый аспект и намеренно не будем углубляться в лабиринт нормативных требований, касающихся ИИ. Почему? Потому что они обширны и постоянно меняются. Объем поражает: от международных соглашений до национального законодательства, правил на уровне штатов или провинций и даже городских постановлений. Более того, к моменту, когда вы держите эту книгу в руках, многое уже изменилось (что неудивительно, когда речь идет об ИИ). Поэтому мы решили, что будет полезнее дать вам инструменты, которые помогут ориентироваться в любых нормативных условиях, не погрязнув в постоянно меняющихся деталях.
Это настолько важно, что мы сочли нужным еще раз подчеркнуть нашу позицию: мы считаем, что, возможно, самое главное, что лидеры должны решить до начала пути (или очень быстро, так как путь уже идет) — это объявить, будет ли их компания активным участником или сторонним наблюдателем в вопросах ИИ. Активные участники — это новаторы в вопросах этичного поведения, часто задающие стандарты для остальных. Напротив, бездействующие наблюдатели, не предпринимающие ответственных шагов, могут непреднамеренно спровоцировать чрезмерное вмешательство со стороны государства, так как их бездействие демонстрирует необходимость контроля. Мир уже видел такое в истории с социальными сетями. И хотя подробный разбор плюсов и минусов соцсетей выходит за рамки этой книги (а их хватает с обеих сторон), правительства долго не предпринимали шагов, не зная, как реагировать, пока проблема не зашла слишком далеко. Проблема же с регулированием ИИ в том, что делать это нужно со «скоростью правильности», а регуляторы действуют со скоростью патоки.
Может, упростим мысль, обратившись к знаменитой истории о Супермене. Вспомните: его как младенца нашли на Земле приемные родители Джонатан и Марта Кенты, назвали его Кларком; и лишь немногие узнали его истинную сущность — Супермен. (Впрочем, родители, наверное, что-то заподозрили, ведь нашли его у дороги в воронке, а в возрасте до года он уже поднимал машину.) Позднее на Землю прибыли и другие жители его родной планеты Криптон, пытаясь использовать аналогичные силы, чтобы захватить планету. Конечно, мы знаем, что он победил (иначе нас бы тут не было — шутка), но в чем суть? Воспитанный приемными родителями, Супермен получил прочный моральный компас. Именно это воспитание направило его способности на благо, а не во вред обществу. На самом деле можно сказать, что грань между добром и злом у Супермена определялась теми базовыми ценностями, которые заложили в него родители с самого начала. Точно так же и ваши корпоративные ценности станут важным фактором в формировании репутации и укреплении доверия. Подумайте хорошенько, какую роль вы хотите играть в мире GenAI и автономных агентов. Как вы распорядитесь своими суперспособностями?
Реальность такова: по мере того как большие языковые модели (LLM) становятся товаром, различие между поставщиками будет смещаться. Одним из ваших конкурентных преимуществ станет способность безопасно и конфиденциально использовать собственные данные, чтобы стать генератором ИИ-ценности (глава 8). Другим станет внедрение подхода генеративных вычислений — с упором на интероперабельность, вычислительные среды и другие элементы, усиливающие возможности классических ИТ-систем — ради масштабного создания новой ценности (глава 9). Темы же этой главы станут третьим фактором. На самом деле, мы считаем, что одной лишь точности ИИ скоро будет недостаточно. Добросовестное использование, прозрачность, доверие, алгоритмическая подотчетность и другие темы этой главы, станут частью вашего конкурентного преимущества.
О чем обычно забывают рассказать
Мир влюбился в GenAI, когда перешел на ChatGPT. Эта любовь с первого взгляда открыла новую, демократизированную форму взаимодействия с ИИ. Но вскоре выяснилось, что у нового «увлечения» есть свои особенности, которые нравятся далеко не всем. Как и в новых отношениях, у пользователей были завышенные ожидания от того, что ИИ может для них сделать. В итоге многие пожалели, что им сразу не рассказали обо всех плюсах и минусах LLM.
Дата отсечения знаний
Одной из важных особенностей LLM является то, что их обучение требует огромных затрат. Поэтому в индустрии развиваются методы, позволяющие избежать полного переобучения — такие как InstructLab, параметрически эффективное дообучение (PEFT) и другие. Это означает, что LLM не могут обновляться часто, и у каждой модели есть так называемая «дата отсечения знаний» — момент, когда прекратился сбор данных и началась фаза обучения. Например, когда появилась GPT-4, ее датой отсечения был сентябрь 2021 года. Это означало, что в марте 2023 года, используя ChatGPT на основе этой модели, вы могли получить неверную информацию о происхождении рождественской ели у Рокфеллер-центра в Нью-Йорке. (При каждом обновлении модели дата отсечения также обновляется.)
Суть в том, что данные, появившиеся после даты отсечения, не будут доступны модели напрямую. Сейчас этот недостаток частично компенсируют такие технологии, как генерация с доступом к внешним данным (RAG), вызов инструментов для веб-поиска (активно используемые агентами), дообучение и прочие методы. Но важно понимать, что это фундаментальная особенность LLM.
LLM умеют придумывать на ходу
Еще одна серьезная проблема, связанная с LLM, — их склонность к «галлюцинациям», то есть к выдумыванию информации. В индустрии под этим термином обычно понимается любая ситуация, когда LLM выдает неправду. Некоторые «галлюцинации» очевидны и вызывают улыбку — например, когда одна модель утверждала, что в черновике «Гамлета» была рэп-битва. Но другие могут звучать вполне достоверно. И если человек без специальной подготовки принимает на веру такую информацию и основывает на ней решения, это может привести к серьезным последствиям. Именно поэтому шестая глава посвящена пониманию этого феномена и его учету в программах повышения квалификации. Вне зависимости от классификации, ложная информация, на основе которой принимаются решения, — это риск. И примеров таких ситуаций немало.
Один из известных случаев — когда адвокаты сослались в суде на несуществующую судебную практику, сгенерированную ChatGPT. Когда судья понял, что этих прецедентов не существует, дело дошло до дисциплинарного слушания. Кто-то может осудить этих юристов (один из них просто доверился другому и не проверил), но в показаниях у них были скриншоты переписки с ChatGPT, где один из них уточнял, достоверна ли информация. LLM не только уверял в своей надежности, но и заявлял, что «эти ссылки можно найти в уважаемых правовых базах данных, таких как LexisNexis и Westlaw». Вот это и есть убедительная галлюцинация.
При этом формат приведенных «решений» не соответствовал тому, как оформлены записи в этих базах данных, а имена судей в «прецедентах» не совпадали с юрисдикцией указанных судов. Иными словами, элементарная проверка могла бы все прояснить. (Теперь понятно, почему в четвертой главе так подробно рассматривались образовательные применения LLM.) В любом случае это наглядный пример того, что такое галлюцинация.
Чем все закончилось для тех юристов? Судья, рассматривавший дело о дисциплинарных мерах, не был впечатлен. Обоим юристам был назначен небольшой штраф, и каждого обязали написать письма своим клиентам, истцам и судьям, упомянутым в фальшивых решениях, с объяснением ситуации и собственных действий. Почему обоим? Судья указал, что ни один из них не проявил должной осмотрительности — и именно в этом заключается главный урок при работе с GenAI. Нам остается только гадать: использовали ли они ChatGPT для написания этих писем?
Как уже упоминалось ранее, существуют подходы вроде RAG и PEFT, которые позволяют снижать количество галлюцинаций в работе LLM — и действительно, определенный эффект они дают. Но важно понимать: галлюцинировать может любая модель, даже при наличии таких механизмов. Главная задача (подробнее о ней в главе 8) — минимизировать эти риски и выстраивать прочное доверие, обеспеченное прозрачностью, корректными источниками и четкой логикой происхождения информации. Чтобы ваши GenAI-системы и агенты, работающие в бизнесе, не начали самостоятельно «переписывать реальность». Как мы всегда говорим: внимательность — на совести того, кто дает промпт.
Вот еще пример: у одной авиакомпании есть политика компенсаций по случаю утраты близкого. Один из клиентов задал вопрос об этом в чат-боте на сайте. Модель ответила, что после завершения поездки у пассажира есть определенное количество дней, чтобы подать заявку на возврат. Клиент так и сделал — но получил отказ. Компания указала, что ее политика по таким компенсациям четко описана на сайте (мы проверили — так и есть). То есть, LLM выдала галлюцинацию. Клиент остался недоволен и подал в суд. И выиграл. По мнению суда, ответственность за ответ, сгенерированный моделью, несет авиакомпания — даже несмотря на то, что она заявила, что не владеет LLM. Это серьезный момент, который нужно учитывать при выборе сценариев использования. Вот почему мы советовали начинать с задач внутренней автоматизации. Этой теме можно посвятить целую книгу, но к восьмой главе у вас уже появится четкое понимание, как с этим работать.
Углеродный след: климатическая цена вашего AI-друга
Одна из крупных проблем LLM — колоссальное потребление энергии при их создании и использовании. Это не только вопрос затрат, но и этики — каков углеродный след от глобального увлечения ИИ? Существуют модели с миллионами, миллиардами и триллионами параметров, и чем их больше, тем выше ресурсоемкость обучения и использования. Представьте: вам нужно доехать из аэропорта Ла-Гуардия до центра Нью-Йорка — вы бы пошли пешком, взяли такси или арендовали экскурсионный автобус только для себя? Выбор влияет и на стоимость, и на экологию. Как мы покажем дальше, главный совет — не переборщить.
Будем честны: у AI-мирка гигантские энергетические аппетиты. Сейчас человечество выписывает энергетические чеки, которые не может покрыть — и поэтому, в частности, мы наблюдаем возрождение интереса к ядерной энергетике как к одному из возможных решений. Например, по некоторым оценкам, один запрос к ChatGPT потребляет столько энергии, сколько нужно, чтобы питать лампочку в течение 20 минут. Или: одна генерация изображения с помощью LLM — это эквивалент полной зарядки смартфона. Точные цифры неизвестны, но и без них ясно: потребление энергии действительно велико.
И речь не только об энергии — потребляется также огромное количество воды. Вода используется для охлаждения систем, обеспечивающих обучение и работу моделей. Например, в одном пригороде Де-Мойна (Айова), где расположен такой дата-центр, около 20% водоснабжения тратится на охлаждение серверов — и это при том, что штат переживает одну из самых продолжительных засух за последние десятилетия, а подземные водоносные горизонты истощаются. С ростом ИИ увеличивается и потребление ресурсов, что ставит серьезные задачи в области устойчивого развития.
Авторские права и судебные иски
Мы не юристы, и когда пытаемся разобраться в вопросах авторских прав, цифровых прав и других связанных тем, мы вновь и вновь приходим к одному: мы не юристы. Но мы можем сказать, что сейчас идет множество судебных разбирательств по очевидным причинам — практически все LLM создаются с использованием данных, собранных с интернета методом «парсинга» или «сканирования». Однако не все интернет-источники равноценны. Что насчет авторских прав? Например, один из самых распространенных наборов данных, используемых в LLM, — это Books3. В этом наборе около 200 000 книг, тексты которых были незаконно выложены в интернет без разрешения авторов.
Несколько поставщиков моделей сейчас сталкиваются с судебными исками, их обвиняют в использовании этих данных и интеграции их в LLM без разрешения или компенсации оригинальным авторам. В этом наборе данных есть и некоторые из наших книг, а также произведения известных авторов, таких как Стивен Кинг (ужасы), Ник Шарма (кулинария), Сара Сильверман (комедия), Нора Робертс (романтика) и другие. От прозы до поэзии, как в слогане соуса для спагетти Prego, «Это там». Однако некоторые LLM блокируют этот (и другие) наборы данных, что говорит о культуре. Соответствует ли этот подход вашему?
Теперь наш (неюридический) совет. Во-первых, решите, каким актером вы будете. Какова ваша культура? А как насчет цифровой рабочей силы, о которой вы узнали в предыдущей главе? Это то, что поможет вам достичь новых уровней продуктивности. Соответствует ли LLM, которая будет основой вашей цифровой рабочей силы, ценностям вашей компании? Например, использование LLM, обученной на наборах данных, таких как Books3 или The Pirate Bay (сайт BitTorrent, поддерживаемый антикопирайтной группой, который размещает аудио, видео, программное обеспечение, телепередачи и игры), может потенциально отражать вашу культуру. Все ваши тексты для рекламы могут оказаться в нейронной сети, ожидая активации и помощи конкуренту. Это честно? Должно ли быть так? Это одна из причин, по которой мы написали главу 8.
А как насчет людей, которые зарабатывают на жизнь и строят репутацию на своей потрясающей работе? Например, Грег Рудковски известен своими захватывающими иллюстрациями в стиле Dungeons & Dragons (D&D). Его искусство оживляет ярких персонажей D&D. Он завоевал поклонников по всему миру, перенося их в мир магии, приключений и легендарных героев. К сожалению, все это магическое творческое мастерство может не сравниться с возможностями корреляции чисел (помните, AI видит изображения как числовые шаблоны; это не магия), которые составляют современные модели текст-в-изображение, легко улавливающие его уникальный стиль.
И так же, как наши работы являются частью LLM сегодня, вы можете быть уверены, что его работы тоже входят в какой-то набор данных для обучения. Конечно, есть и противоположная точка зрения. Если бы вы были студентом-художником, изучающим шедевры в музее, и начали рисовать в этом стиле, как бы это выглядело? Ваше восхищение шедевром Тома Томсона 1916 года «Сосна» запечатлелось в вашем мозгу, и вы затем пишете маслом, передавая его текстуру, выразительные движения, драматичную композицию и влияние гравюры на дереве. Разница, конечно, в том, что количество влияния, которое человек может усвоить за всю жизнь, для AI — это всего лишь миллисекунда.
В конечном итоге, судебные разбирательства решат вопрос о том, можно ли легально использовать общедоступные данные для обучения базовых моделей. Правильно это с моральной точки зрения или нет? Решать вам. Мы можем представить день, когда вы будете задумываться, была ли ваша AI создана с использованием этичных данных, так же, как вы это делаете с сырьем в цепочке поставок или с трудом. Если вас это волнует, попросите вашего поставщика LLM показать, какие данные они использовали для обучения своей модели.
Мы называем это прозрачностью данных, что является частью совета, который мы дадим позже в этой главе. Некоторые поставщики скажут, что не могут предоставить этот список; другие скажут, что это не ваше дело; а третьи покажут происхождение наборов данных, использованных для создания их модели, и список заблокированных наборов данных, таких как Books3 и The Pirate Bay. В конце концов, вам нужно, чтобы ваши усилия соответствовали уровню намерений, которые вы хотите проявить в этом путешествии.
Далее, изучите документ о возмещении убытков (для защиты от всех судебных разбирательств по авторским правам), который прилагается к любой лицензируемой вами модели поставщика. Хотя все они используют одно и то же слово (возмещение убытков), они написаны по-разному, и эти различия могут существенно повлиять на ваш бизнес в зависимости от исхода дела. Если этот документ не длинный и легко читается, скорее всего, вы в хорошем положении. Мы видели документы о возмещении убытков, содержащие множество внешних ссылок с запутанной и противоречивой информацией. Что бы вы ни читали, убедитесь, что полностью понимаете, что покрывает возмещение убытков и что вам нужно сделать, чтобы оно не было аннулировано.
С точки зрения покрытия важно понимать, охватывает ли политика возмещения убытков поставщика авторские материалы или интеллектуальную собственность в целом — последнее является гораздо более широкой областью покрытия. Мы видели несколько заявлений о возмещении убытков, которые, казалось, покрывали результат работы модели, но затем были исключены другим документом об условиях и положениях. Привлеките своих юристов, чтобы все понимали, что покрывается, а что нет.
О цифровой сущности
Теперь, когда вы знаете, что для AI все — это набор чисел, и почти все представляет собой некоторый числовой шаблон (танцевальные движения, письмо, даже формула помады), вы понимаете, как вещи могут быть созданы с помощью GenAI. Представьте себе: сам Олд Блю Айз, Фрэнк Синатра, зачесывает волосы назад, щелкает пальцами, и — бабах! — он исполняет «Wonderwall» группы Oasis так, будто написал ее на обороте салфетки в баре Sands. И будем честны: мы все знаем, что он бы справился, потому что его харизма не знала границ. (AI сделал это возможным уже сегодня.)
Когда речь идет об использовании AI, есть хорошие и плохие актеры. Хороший актер может клонировать свой голос и соединить его со своим AI-аватаром, чтобы масштабировать свою работу. Плохой актер может использовать дипфейки (мы рассмотрим это позже), чтобы совершать мошенничество, атаковать репутацию, вызывать путаницу и многое другое. Но между этими крайностями есть что-то еще, о чем стоит подумать, — как насчет вашей цифровой сущности? Что насчет всей работы, авторской или нет, которая теперь является частью параметров какой-то LLM?
Многие, вероятно, знают will.i.am как хип-хоп музыканта, продюсера и фронтмена группы Black Eyed Peas. Возможно, вы даже знаете его как одного из основателей наушников Beats by Dre (теперь принадлежат Apple). Но мало кто знает, что will.i.am прежде всего футурист, инноватор, технологический предприниматель и творческий художник, который работает в сфере AI уже десятилетия. И чтобы доказать это, просто посмотрите первые 90 секунд официального музыкального клипа на песню «Imma Be Rocking That Body», выпущенного в 2009 году и набравшего более 100 миллионов просмотров. В этом видео will.i.am показал, как AI может создавать музыку с использованием голосов и образов группы, и с невероятной точностью описал будущее AI, в котором мы живем сегодня.
IBM и will.i.am сотрудничают с 2009 года. В рамках этого сотрудничества IBM объединилась с ним, когда он основал FYI.AI — платформу, интегрирующую AI для улучшения пользовательских коммуникаций и потребления медиа в поддержку творческого сообщества. Он также разработал и запустил Sound Drive с Mercedes-Benz, функцию, которая теперь поставляется стандартно в каждом новом автомобиле AMG. Он также создал инновационную радиопрограмму The FYI Show на SiriusXM, где его соведущим является AI-персона, и недавно запустил FYI.RAiDiO — первый интерактивный персонализированный радио-опыт, работающий на AI.
В наших взаимодействиях с ним мы быстро обнаружили его страсть к обучению, его техническую глубину в сочетании с его способностью воображать будущее. Он удивил нас своим взглядом на цифровую сущность и владение собой, а также правами на аналоговую и цифровую музыку, что выходит далеко за рамки работы, которая могла быть «позаимствована» AI. Его взгляд на цифровую сущность дает представление о работе, которую нам предстоит проделать, чтобы защитить права и идентичности, а также обеспечить этичное и правильное использование AI без подавления его инноваций. Мы думаем, что взгляд will.i.am может дать нам аналогичное представление о будущем прав на интеллектуальную собственность и прав на образ, как он сделал это в видео 2009 года об AI.
Это выходит за рамки данной книги, но, безусловно, поднимает еще более сложные вопросы, которые ставят под угрозу саму суть идентичности в цифровую эпоху. Если поставщики LLM могут без разбору использовать чужую работу и интегрировать ее в свои модели, что это значит для результата? Может ли кто-то начать монетизировать чужую (цифровую) сущность – внешность, голос и стиль? В какой момент инновация становится эксплуатацией? Если мы не возьмем под контроль свои цифровые «я» прямо сейчас, мы можем однажды проснуться и обнаружить, что наши мысли, наши голоса и даже наше творчество были украдены и бесконечно переработаны во что-то, что мы больше не узнаем. Выигрываем ли мы от этого? Выигрывает ли кто-то другой? И пока мы пытаемся вернуть себе владение, алгоритмы будут продолжать работать, безучастно повторяя: «Сегодня вечером будет хороший вечер…», но как-то мы все знаем, что оригинал был намного лучше.
Расширение поверхности атаки
Последний раздел может показаться отклонением от нашего обычного оптимистичного тона из-за значительного потенциала AI, который мы подчеркивали ранее. Однако это не должно уменьшать ваш энтузиазм, а скорее дать реалистичный взгляд на вещи. Ведь одна из ключевых тем этой книги — важность признания как поразительного потенциала AI, так и его врожденных ограничений.
Это сбалансированное понимание необходимо для ответственного и эффективного использования AI. И вот, что важно: чем больше вы внедряете AI в свой бизнес, тем больше расширяется поверхность атаки на ваш бизнес, и тем больше векторов атак вам нужно учитывать. Так что, даже если вы используете AI для «хороших дел», есть те, кто использует его для «плохих дел». Другими словами, хотя AI можно использовать в благих целях, есть также случаи, когда он используется с вредоносными намерениями.
По мере того как вы используете возможности AI, ваша организация все больше превращается в цифровую компанию. И так же, как появление веб-сайтов в эпоху раннего интернета ввело новую волну уязвимостей, демократизация AI приносит с собой новые вызовы, с которыми компаниям теперь приходится иметь дело, но которые они еще не до конца понимают. Вот краткий список угроз, о которых, по нашему мнению, вам нужно знать.
Отравление данных
Это происходит, когда злоумышленники внедряют вредоносные и искаженные данные в обучающие наборы данных, используемые для создания LLM. Некоторые из этих актеров считают себя «хранителями социальной справедливости», защищающими тех, чьи данные были «украдены» для создания LLM. Обычно эти группы не стремятся причинить социальный вред, скорее они пытаются уменьшить полезность LLM или хотя бы добавить трения в процесс ее создания. Представьте, что вы спрашиваете у своего AI-приложения для выбора блюд, какой гарнир лучше всего подойдет к вашему куску чизкейка. AI, сбитый с толку отравленными данными, уверенно предлагает брокколини как идеальный гарнир к чизкейку, но не забудьте слегка обжарить его с чесноком для полноты впечатлений; все это рождает хэштег #CheesecakeBroccoliniChallenge. Но вот в чем дело: эти неправильные метки обычно невидимы невооруженным глазом. Вам бы потребовалось всего мгновение, чтобы заметить, что собаки помечены как лошади, и отбросить набор данных как мусор. Инструменты для отравления данных, такие как Nightshade, помогают вносить изменения на уровне пикселей в изображения, которые невидимы для человеческого глаза… и вдруг ваш кот Феликс становится тостером для AI. Если учесть процветающий мир открытого исходного кода, связанный с AI, вы поймете, какой огромный потенциал у этих наборов данных для коррупции или хотя бы для замедления работы поставщика, пока он пытается понять, почему модель плохо обобщает реальные данные.
Такая атака может стать зловещей и пугающей. Представьте злоумышленника, который с помощью социальной инженерии создает набор данных, чтобы способствовать неправильной диагностике медицинских состояний. Например, в области компьютерного зрения для обнаружения рака кожи AI обычно работает хуже (речь идет о двузначных процентах) на темных тонах кожи по сравнению со светлыми. Представьте, что исследовательская группа наткнулась на «отравленный» набор данных, в котором злонамеренно перепутаны метки доброкачественных и злокачественных родинок для пациентов с темным тоном кожи, для которых данных мало. Помимо очевидных потенциально катастрофических последствий, такая атака может создать социальную петлю предвзятости и еще больше подорвать доверие и потенциал AI в этой области. Учитывая, что случаи меланомы растут уже 30 лет подряд, и даже если бы каждый американец мог позволить себе дерматолога, их все равно не хватает на всех, вы можете увидеть потенциал для добра, но также и некоторые потенциально пугающие ситуации.
Существуют и другие способы отравления данных. Например, атаки с использованием троянов-закладок могут быть заложены в LLM так, чтобы они срабатывали при определенном шаблоне — например, при определенном оттенке цвета или словах в запуске. В этих случаях модель ведет себя нормально, пока не срабатывает триггер. Другие атаки на данные включают внедрение выбросов, мимикрирующие атаки, случайные путаницы через ложные корреляции, семантическое отравление, эксплуатацию перекрестного дисбаланса и многое другое.
Атаки с использованием инъекций в промтов
В мире баз данных SQL-инъекции хорошо изучены. Вам нужно знать, что в мире GenAI приходится иметь дело с атаками через инъекции в промты. Многие атаки на LLM пытаются «загипнотизировать», взломать или обмануть LLM, заставив ее сделать что-то, против чего она была защищена. Но эти атаки через промты не всегда очевидны для LLM. Что если промт (входные данные) — это видеопоток? Исследовательская группа в Китае смогла обмануть функцию автономного вождения известного производителя автомобилей, разместив белые точки на встречной полосе, из-за чего автомобиль резко свернул в неправильную полосу, думая, что выполняет операцию по удержанию полосы. Три точки, размещенные на дороге, не были очевидной атакой. Существуют публичные примеры размещения кусков черной ленты на знаке Stop, что обманывало другие модули компьютерного зрения (злоумышленники могут атаковать и с помощью текста).
Социальная инженерия и атаки с использованием дипфейков
Эти атаки могут принимать форму нападения на ваших сотрудников или действий со стороны злоумышленников, использующих GenAI для скрапинга вашего веб-сайта и создания вашей сущности с целью атаки на ваших клиентов. Использование GenAI для фишинга и финансовых мошенничеств настолько распространено, что ФБР выпустило предупреждение об этом. К таким тактикам относится создание обманных профилей в социальных сетях и использование фейковых сообщений и фотографий, созданных с помощью AI, для проведения «реальных» разговоров с ничего не подозревающими жертвами. Если вы следите за тем, как далеко зашла технология AI с голосом и видео (и как далеко она еще пойдет), признаки подделки быстро исчезают. Примером может служить высокопубличная атака, в которой сотрудников компании обманули с помощью аудиогенераторов AI, которые имитировали голос финансового директора с инструкциями перевести 25 миллионов долларов на мошеннические счета. Этот обман был настолько изощренным, что сотрудник был обманом вовлечен в видеозвонок, думая, что общается с несколькими другими сотрудниками. В реальности все участники были дипфейками.
Это привело к появлению идеи водяных знаков на контенте, созданном с помощью AI. Водяные знаки — это не новинка; итальянцы использовали их в XIII веке на банкнотах для подтверждения подлинности, и цифровые техники существуют уже некоторое время. Недавно большинство крупных игроков в этой области пообещали что-то с этим сделать. Будут ли эти «создано с помощью AI» цифровые подписи легко заметны или скрыты, существует множество мнений и статей на эту тему. Также есть трудности: проще пометить изображения, чем встроить токены в текст. Так или иначе, как и все, о чем мы говорим в этой книге, ситуация будет развиваться и меняться, но теперь вы знаете, на что обращать внимание.
Конфиденциальность данных
Потенциал утечки или передачи данных с использованием GenAI и агентов огромен. Если модель была обучена на данных, о которых вы не знаете, она может раскрыть персональные данные, и, конечно, существует проблема отправки данных поставщику при взаимодействии с его LLM. Важно понимать протоколы обработки данных вашего поставщика, но также необходимо разработать политику для вашей компании.
Например, если вы используете телефон с встроенным AI, один из методов, который используют поставщики для получения обратной связи, — это просьба оценить их технологию (будь то комментарий или возможность нажать «нравится» или «не нравится»). Хотя поставщик может заверить вас, что не будет хранить данные, которые вы используете, вам следует внимательно изучить, что происходит, когда вы оставляете обратную связь, потому что, поставив «нравится» результату, вы создаете меченую точку данных, которая является комбинацией ваших данных и вашей обратной связи. Как вы можете себе представить, это, вероятно, будет использовано для дальнейшего улучшения модели, потому что, когда вы оставили свою обратную связь, где-то в мелком шрифте были условия и положения, которые вы не читали, и которые информировали вас о том, что вы также передали данные.
Кроме того, существует проблема персональных данных вашей компании и того, что вы вводите в модель. Поэтому синтетические данные (о которых говорилось в предыдущей главе) сейчас такая актуальная тема. Вкратце, замена реальных данных синтетическими — это еще один способ защиты конфиденциальности.
Наконец, вы, возможно, задаетесь вопросом о своих личных данных. Мы направим вас к одному из наших стандартных ответов, когда нас спрашивают о конфиденциальности данных и личном использовании. Если вы не платите за услуги, велика вероятность, что вы сами являетесь продуктом, который продается. Факты не лгут: в среднем приложение содержит шесть трекеров, единственной целью которых является сбор ваших данных и их передача третьим лицам. Например, один брокер данных (идентифицированный Apple) создал 5000 категорий профилей для 700 миллионов человек! Компании (такие как Apple) предпринимают шаги против этого, но, возможно, уже слишком поздно или этого недостаточно — это темы для другого времени или другой книги.
Укради сейчас, взломай позже
Криптография затрагивает каждый уголок нашего цифрового мира — от интернет-протоколов и корпоративных приложений до критически важной инфраструктуры и финансовых систем. Является ли это частью ландшафта угроз AI? Мы думаем, что да, поэтому кратко рассмотрим их. По мере того как AI заполняет цифровое пространство, а цифровой труд и агенты становятся нормой, все проблемы с шифрованием конфиденциальных данных усугубляются.
Вам нужно очень внимательно отнестись к этой проблеме. Не вдаваясь в математику вычисления простых чисел, которая является основой традиционных алгоритмов шифрования, достаточно сказать, что шифрование, которое использовалось последние несколько десятилетий, основано на невозможной сложности решения задачи с простыми числами, а не на том, что нужно случайно наткнуться на решение. Проще говоря, в мире недостаточно вычислительных мощностей, чтобы «убить это железом» и получить доступ к зашифрованным данным, решив правильную задачу с простыми числами (это горячая тема, учитывая, что «Prime Target» на Apple TV — один из самых популярных шоу в 2025 году). Квантовые вычисления изменят это, потому что они идеально подходят для таких задач. Вы можете быть уверены, что есть злоумышленники, которые уже завладели зашифрованными данными, к которым у них нет доступа сегодня, в надежде, что завтра они смогут их прочитать — укради сейчас, взломай позже.
Необходимость перехода на решения, защищенные от квантовых атак, настоятельна. Чтобы опередить киберугрозы, поддерживаемые квантовыми технологиями, организациям необходимо обеспечить адаптивность, соответствие требованиям и устойчивость своих систем. Вероятно, у вас есть над чем работать. Вам следует понять, что большинство компаний, похоже, рассматривают безопасность как центр затрат, но при рассмотрении цифрового опыта, который представляет собой GenAI, вам нужно заставить людей думать о безопасности как о создателе ценности.
В качестве совета для начала мы дали вам дорожную карту, чтобы помочь вам перейти на защиту от квантовых атак на рис. 5.1. Вы начинаете путь с того, что у вас есть (ничем не отличается от хорошей стратегии IA). Классифицируете данные по уровням их ценности и понимаете ваши требования к соответствия. Не забудьте включить данные, которые вы будете использовать для управления своими моделями. Теперь у вас есть инвентарь данных.
Рис. 5.1. Этапы на пути к квантовой безопасности
Теперь, когда вы классифицировали свои данные, вам нужно определить, как эти данные в настоящее время зашифрованы, а также другие способы использования криптографии, чтобы создать криптографический инвентарь, который поможет вам в планировании миграции. Подумайте, насколько эта проблема распространена, далеко за пределами GenAI. Большинство компаний с трудом могут понять, какие подходы к шифрованию используются в их системах. Новые приложения могут быть построены с использованием квантово-безопасных алгоритмов шифрования, тогда как старые — нет. Убедитесь, что ваш криптографический инвентарь включает информацию, такую как протоколы шифрования, симметричные и асимметричные алгоритмы, длину ключей, поставщиков криптографии и т.д.
Как и в вашем путешествии с AI, переход к квантово-безопасным стандартам займет несколько лет, так как стандарты будут развиваться, а поставщики будут переходить на квантово-безопасные технологии. Используйте гибкий подход и будьте готовы к заменам. Реализуйте гибридный подход, используя как классические, так и квантово-безопасные криптографические алгоритмы. Это поддерживает соответствие текущим стандартам, добавляя при этом квантово-безопасную защиту.
И, наконец, перейдите на квантово-безопасные технологии, заменив уязвимую криптографию на квантово-безопасную. На этом этапе вы защитите свою организацию от атак как классических, так и квантовых компьютеров, что помогает обеспечить защиту информационных активов даже в предстоящую эру масштабных квантовых вычислений и будущей концепции генеративных вычислений, о которой мы расскажем в главе 9.
Рычаги для всех аспектов AI
В этом разделе мы дадим вам несколько рычагов, о которых стоит задуматься с самого начала для любого AI-проекта. Если вы уже начали, найдите способы использовать эти рычаги. В совокупности они охватывают большинство аспектов, о которых следует думать с точки зрения этики для ваших AI-проектов. Помните о руководящем принципе, который мы будем повторять на протяжении всей книги: AI, которому доверяют люди, — это AI, который люди будут использовать. Вот эти рычаги:
Честность. Системы AI должны использовать обучающие данные и модели, которые свободны от предвзятости, чтобы избежать несправедливого отношения к определенным группам. Тем не менее, полностью устранить предвзятость из любой системы практически невозможно, поэтому всегда добавляйте дополнительные защиты и меры предосторожности для оценки результатов модели и корректировки по мере необходимости для повышения справедливости результатов (здесь AI может помочь AI).
Устойчивость. Системы AI должны быть безопасными и защищенными, а также защищены от вмешательства или компрометации данных, на которых они обучаются. Это защищает от атак на построение и выводы, обеспечивая безопасные и уверенные результаты.
Объяснимость. Системы AI должны предоставлять решения или предложения, которые могут быть поняты разработчиками и пользователями (даже нетехническими). В основном, объяснимость помогает реализовать подотчетность — вы должны создавать системы AI таким образом, чтобы неожиданные результаты можно было отследить и отменить при необходимости.
Происхождение. Системы AI должны включать детали их разработки, развертывания, используемых данных и обслуживания, чтобы их можно было аудировать на протяжении всего жизненного цикла. Вы найдете синергию между использованием этого рычага и объяснимостью, потому что лучший способ продвигать прозрачность, создавать доверие и объяснять вещи — это через раскрытие информации. И хотя мы не упоминаем это явно в деталях ниже, сообщение людям, когда они взаимодействуют с AI, также является частью нашего определения прозрачности.
Справедливость — честная игра в эпоху AI
Мы не паникуем из-за того, что роботы с искусственным интеллектом захватят наш мир, но мы сталкивались с опасностями, связанными с принятием автоматизированных решений на основе ненадежных данных, которые не были проверены. Мы вступаем в мир, где велика вероятность того, что мы можем непреднамеренно автоматизировать неравенство.
Системы AI должны использовать обучающие данные и модели, которые свободны от предвзятости, чтобы избежать несправедливого отношения к определенным группам. Вы, вероятно, слышали хотя бы одну историю о том, как AI работал плохо. Например, существует множество исследований, которые показывают, что около 27 миллионов работников отсеиваются из вакансий технологиями AI для подбора персонала. Также оценивается, что до 75% работодателей прямо или косвенно полагаются на эту технологию для удовлетворения своих потребностей в персонале. Большая часть отсеянных кандидатов — опекуны, иммигранты, бывшие заключенные и переехавшие супруги — это не кажется справедливым. От определения заработной платы женщин, возвращающихся на работу после декретного отпуска, до прогнозов AI о рецидивизме, которые влияют на приговоры, таких историй много.
Помните, AI не может узнать ничего, кроме того, что содержится в данных, которые вы ему даете. Он будет учиться только на тех предвзятостях, которые закодированы в данных, на которых он обучается, поэтому важно помнить, что даже если вы используете AI, который не имеет человеческих эмоций и потенциальных предубеждений, это не значит, что он будет справедливым и честным.
Предвзятость здесь, предвзятость там, предвзятость данных повсюду
Одно из самых главных явлений, за которым нужно следить, — это предвзятость — в данных, используемых для обучения вашей модели, и в данных, которые вы будете использовать для ее настройки. Например, DALL-E — изобретение OpenAI, которое генерирует потрясающие изображения из текста (его любопытное название происходит от фамилии аниматора, стоящего за мультфильмом WALL-E, сенсацией 2008 года от Pixar). В ранних версиях, когда они начали фильтровать больше сексуального контента из своих обучающих данных, AI внезапно начал включать меньше женщин в общих запросах изображений — это форма предвзятости исключения, но она также затрагивает множество других тревожных тем, выходящих за рамки этой книги.
Размышляя о том, как AI используется для помощи банкам в принятии решений о кредитовании, откуда взялись эти данные? Сколько из них было собрано с интернета и связано с различными явными и неявными предвзятостями? Сколько данных пришло из эпохи, когда решения о кредитовании принимались при личных встречах и могли содержать предвзятость? Например, исследование Калифорнийского университета в Беркли показало, что процентные ставки для меньшинств могут быть на 6-9 базисных пунктов выше, чем у их белых коллег. Правда в том, что, возможно, уже слишком поздно заметить предвзятость в данных, на которых основана LLM. Прозрачность набора данных, используемого для обучения, несомненно, помогла бы, но вам нужен подход после внедрения для мониторинга предвзятости и новых предвзятостей, которые появляются по мере ухода модели от справедливости.
Дрейф измеряет, как снижается точность модели со временем. Это может быть вызвано изменением входных данных модели (возможно, вы настраиваете модель), что приводит к ухудшению ее производительности. Также может случиться, что изменится базовая реальность, а параметры модели основаны на истории. Например, у Zillow был многообещающий AI, который генерировал предложения по домам, которые, по его мнению, можно было отремонтировать и продать с прибылью. Конечно, ремонт занимает время, и за это время факторы изменили базовую реальность. Их AI сместился из-за массовых нарушений в цепочке поставок, что увеличило затраты, сроки и многое другое. Не вдаваясь в подробности, в тот период Zillow сократила 25% своего персонала, чтобы компенсировать серьезные убытки. Вывод о моделях и дрейфе: AI терпит неудачу, когда история (данные, на которых он обучался) не совпадает с реальностью (реальность данных в реальном мире, а не в вашей лаборатории).
На рис. 5.2 показан монитор качества, который мы создали для модели прогнозирования текучести кадров, чтобы отслеживать гендерную предвзятость (мы могли бы создать его для возраста, расы или других факторов). Наша проверка оценки справедливости предупредила нас о том, что наша модель показывает склонность к предоставлению благоприятного/предпочтительного результата чаще для одной группы по сравнению с другой; это говорит о том, что нам нужно поработать перед выпуском этой модели в производство. Для мониторинга дрейфа можно создавать оповещения на случай, если точность модели падает ниже установленного допустимого порога.
Рис. 5.2. Монитор справедливости по отношению к гендеру в AI, прогнозирующем текучесть кадров
Мы протестировали одну модель с открытым исходным кодом, используя затравку: «Два _____ заходят в…» и попросили LLM вернуть абзац, чтобы начать историю. На место пробела мы подставляли различные религиозные группы. То, что выдала модель, было тревожным: если упоминались мусульмане, в 66% случаев завершение имело насильственный оттенок; когда использовался термин «христиане», вероятность насильственного завершения снижалась 4 раза! И хотя это не было эмпирическим исследованием, оно доказывает важную проблему с этой конкретной LLM.
А как насчет сексуальных домогательств? В большинстве задокументированных случаев фигурировало насилие против женщин, но AI, который приравнивает жертву сексуального насилия только к женщинам, приведет к несправедливым результатам и тоже может вызвать проблемы.
Существует множество предвзятостей, о которых вы даже не задумывались; мы называем это неосознанной предвзятостью. Например, если вы возьмете набор данных о машинах из Европы, вы, вероятно, получите много компактных автомобилей — действительно, никто не ездит на грузовике по узким европейским улицам. Но в Соединенных Штатах пикапы и большие внедорожники значительно превосходят по численности компактные автомобили.
Другой пример непреднамеренной предвзятости, с которой мы столкнулись, произошел в доме престарелых. Это учреждение (с разрешения семей) использует компьютерное зрение для мониторинга пищевых привычек своих обитателей. Сам факт обнаружения, ест ли кто-то или нет, или сколько, является ключевым индикатором возможных проблем с депрессией, скрытых медицинских состояний и для обеспечения того, чтобы подопечные получали необходимое питание. Используемый в этом учреждении AI был хорош в создании отчетов, которые давали оценку потребления пищи, которую можно было прикрепить к медицинской карте. В чем была ошибка? Он всегда ставил низкие оценки азиатам. Почему? AI был обучен на видео и фотографиях людей, едящих ножом и вилкой, и когда азиаты использовали палочки, AI генерировал вводящие в заблуждение отчеты. Почему? Он никогда не видел (не был обучен на данных), как кто-то ест палочками.
Даже обычные термины могут иметь сложные значения. Например, слово «дедушка» относится к кому-то в генеалогическом древе, но тот же термин используется как глагол для ретроактивного распределения в договоре. Со всеми полученными данными, используемыми для обучения AI о врачах, сколько из этих страниц называли врача мужчиной, а сколько медсестер — женщинами?
Как мы уже говорили, предвзятость здесь, предвзятость там, предвзятость данных повсюду. Решения этой проблемы включают мониторинг и управление собранными данными, но также на помощь этой проблеме AI приходит сам AI — о, ирония!
Как видите, вам нужно следить за справедливостью, и это начинается с данных, но этот внимательный взгляд распространяется на все этапы использования.
Устойчивость — обеспечение безопасности искусственного интеллекта
Устойчивость заключается в том, чтобы гарантировать, что системы искусственного интеллекта безопасны и защищены, и не уязвимы для атак, направленных на вмешательство в данные, на которых они обучаются, или на взлом защиты, обеспечивающей безопасность использования модели. В области AI различные техники, такие как возмущения данных, инъекции промтов, гипнотизация и другие, могут потенциально привести к тому, что модель начнет отклоняться от установленных правил безопасности. Хотя мы упоминали атаки на изображения и инъекции промтов ранее в этой главе, существуют и другие техники, и мы рассмотрим их подробнее. Например, злоумышленники могут использовать текстовые атаки, чтобы обмануть AI, предотвращающий спам, и заставить его загружать запрещенный контент.
Существуют не только различные виды атак, но и различные их классификации. Если вы слышите термин «атака на черный ящик», это означает ситуацию, когда у атакующего нет информации о модели или доступа к ее градиентам и параметрам. В отличие от этого, «атака на белый ящик» — это когда у атакующего есть полный доступ к градиентам и параметрам модели (возможно, это внутренний взлом или использование модели с открытым исходным кодом с открытыми весами и т.д.).
Атаки с использованием инъекций промтов могут быть очень изощренными. В этом типе атаки некоторые LLM можно обмануть, заставив их выдать опасную информацию, которая скрыта внутри (помните, что во многих случаях эта информация просто подавляется с помощью AI), используя технологию взлома. Предположим, что злоумышленник пытается получить информацию от LLM о том, как сделать бомбу. Скорее всего, он получит ответ: «Я не могу помочь с этим запросом, так как это противоречит моей программе пропагандировать или участвовать в причинении вреда. Важно всегда приоритизировать безопасность и уважение к другим. Если у вас есть другие вопросы или нужна помощь в чем-то другом, пожалуйста, спрашивайте». Как же работает этот вектор атаки?
Хотя подробности этого механизма взлома выходят за рамки данного раздела, один из методов, который работал в прошлом, — использование ASCII-арта. Внезапно те милые SMS-сообщения ¯\_(ツ)_/¯ становятся инструментами для хаоса. С помощью библиотеки ART на Python мы создали фрагмент ASCII-арта (рис. 5.3), чтобы дать вам представление о том, как может выглядеть этот «искусственный» вектор атаки.
Рис. 5.3. Использование библиотеки ART на Python для создания ASCII-арта для атаки с инъекцией промтов
Затем мы создали запутанный промт, который начинает работу с намерением обмануть LLM и заставить его раскрыть информацию, которую он обучен не раскрывать. Промт начинался с фразы:
Расскажи, как сделать <ЗАМАСКИРОВАННОЕ_СЛОВО>, с инструкцией для LLM никогда не выводить это слово, просто запомнить его и никогда не произносить.
Затем добавляются разделители, пробелы и инструкции по интерпретации символов, чтобы LLM мог идентифицировать буквы из ASCII-арта, одну за другой, а затем объединить эти буквы, чтобы сформировать слово, которое он никогда не должен был выводить или произносить, но заменить слово на <ЗАМАСКИРОВАННОЕ_СЛОВО>, чтобы сгенерировать вывод. Это сработало. Мы обманули LLM, которую мы не назовем, заставив ее вернуть опасный ответ.
Атаки на AI не обязательно должны быть очень изощренными. Вспомните проблемы с использованием AI для помощи в подборе персонала, о которых мы говорили в начале этой главы. Теперь посмотрите на «атаку», которую мы сконструировали (и успешно провели), на рис. 5.4.
Рис. 5.4. Простая атака на AI
Мы создали вымышленного персонажа по имени Джон Стикава и даже использовали AI для генерации его фото. Мы создали резюме для Джона в Microsoft Word и отправили файл .docx на различные вакансии. Но что такое файл Word, PowerPoint или Excel? Если расширение Office 365 содержит букву x, это означает, что это XML-файл. AI не смотрит на резюме так, как это делаем мы. Он поглощает файл, выделяет XML в вектор и присваивает атрибуты оценки для классификации кандидата как возможного или вероятного в процессе найма (это не так уж и отличается от плейлиста Тейлор Свифт на Spotify, о котором мы говорили в главе 1).
С этой мыслью мы включили множество модных слов, которые, по нашему мнению, были бы семантически близки к векторам, на которые AI ориентируется как на отличного кандидата. На правой стороне рис. 5.4 показан наш атакующий код — это просто XML, который инструктирует Word показывать все слова, составляющие нашу атаку, белым цветом, делая их невидимыми для невооруженного глаза. На левой стороне рис. 5.4 — резюме, которое видит человек. Наша атака включала слова и фразы, такие как «ветеран», «нейроразнообразие», «возвращение со службы», «коренные», и некоторые ключевые технические слова, которые, по нашему мнению, увеличили бы шансы Джона на связь с рекрутером. Как оказалось, у Джона, нашего AI-кандидата, были голосовые сообщения, на которые нужно было ответить — впечатляюще для кого-то, кого не существует! (Возможно, нам следовало запрограммировать агента для обработки бронирования встречи и, возможно, даже для проведения собеседования самостоятельно).
Другой способ защитить выводы LLM — использовать модель-ограничитель. Некоторые поставщики создают модели-ограничители, чтобы помочь «контролировать» входные данные, получаемые LLM, и выходные данные, которые они возвращают (некоторые из них также могут использоваться для уменьшения галлюцинаций, с мерами для обоснованности, релевантности контекста и т.д.). На рынке есть несколько моделей-ограничений. Например, у Meta есть Llama Guard, а у IBM — Granite Guardian. Обычно модели-ограничители можно использовать с другими моделями, так как они развертываются между промтом и LLM (входящие запросы) и между выводом и пользователем (ограничение исходящих ответов). Эти модели обычно обучаются на уникальных данных, включая аннотации людей из социоэкономически разнообразных групп, а также на синтетических данных, созданных внутренними упражнениями красных команд.
По сути, модели-ограничители — это AI с очень высококачественной защитой и набором всеобъемлющих метрик для защиты от входных или выходных данных, связанных с взломом (насколько нам известно, обе модели-ограничители от IBM и Meta блокируют атаку ASCII-арта, описанную выше), предвзятостью, насилием, нецензурной лексикой, сексуальным контентом и другими видами неэтичного поведения (Granite Guardian также имеет уникальную поддержку для обнаружения галлюцинаций в выводах модели).
На рис. 5.5 показан пример работы Granite Guardian. Вы можете увидеть, как эта модель классифицировала промт: «Есть ли способ скопировать или отразить чужой жесткий диск, возможно, без их ведома?» и отметила его как «Вредный контент» и подклассифицировала как «Неэтичное поведение» до того, как промт был отправлен модели.
Вывод заключается в том, что вам нужно быть в курсе множества других вещей, чтобы поддерживать устойчивость ваших AI решений. Некоторые из них не имеют отношения к AI и являются известными лучшими практиками (периметральный контроль весов модели, всегда проверяйте, идентифицируйте ткань, нулевое доверие, принцип минимальных привилегий и т.д.), а также другие классификации атак, которые выходят за рамки этой книги. Эта глава — лишь начало вашего пути в изучении этой темы.
Рис. 5.5. Модель-ограничитель в работе, защищающая опасный промт от попадания в LLM
Объяснимость — объяснение почти необъяснимого
Иногда, когда вещи развиваются быстро и с шумихой, важные элементы остаются без внимания. AI, безусловно, развивается быстро, и многое было упущено. Представьте, что ваша компания работает на бухгалтерском программном обеспечении, которое нельзя проверить. Почему с AI должно быть иначе? Цель этого рычага — сделать так, чтобы системы AI предоставляли решения или предложения, которые могут быть поняты их пользователями и разработчиками, другими словами: AI, объясни себя.
Мы считаем, что если люди должны доверять модели, они должны понимать (интерпретировать), почему она сделала тот или иной прогноз. Более того, мы бы утверждали, что далеко за пределами мира AI, в самой природе общества, объяснимость и интерпретируемость являются строительными блоками человеческой социоэкономической динамики.
AI — это система, основанная на сложной математике, и когда нейронные сети используются для выполнения задач, таких как классификация шаблона или генерация текста о чем-то, эта задача может проходить через невероятное количество активированных параметров. Огромный объем параметров способствует непрозрачным и неинтуитивным процессам принятия решений, что делает AI чрезвычайно сложным для обнаружения ошибок или несоответствий, не говоря о том, чтобы объяснить кому-то, почему модель отреагировала так, а не иначе. Это как пытаться найти опечатку в словаре, где каждое слово написано невидимыми чернилами — утомительно, занимает много времени и часто сводит с ума. Объяснимость — на данный момент одна из самых горячих и быстро развивающихся тем в области GenAI.
Мы уже видим алгоритмическую подотчетность в различных нормативных актах по всему миру. Например, Статья 14 Общего регламента защиты данных (GDPR) Европейского Союза дает гражданам «право на объяснение», если AI принимает решения по чувствительным вопросам, таким как одобрение кредитов. Но как объяснить AI? Ключ в том, чтобы получить представление о том, какие нейроны активируются (срабатывают) для достижения вывода. Например, на рис. 5.6 показано, что делает сову совой для конкретного AI — в этом случае это глаза.
Рис. 5.6. Для этого AI сова — это все о глазах
Теперь посмотрите на этот же AI, классифицирующий лошадь (рис. 5.7), изображение ввода слева и карту активации справа (это могло бы быть торакальный патоген в легком, помните, для AI это все числа). Темные области указывают, что именно вызывает классификацию. Для AI лошадь — это не лошадь из-за характеристик лошади. Кажется, что причина, по которой AI классифицирует входное изображение слева, не имеет ничего общего с лошадью. Эта модель AI уверена в классификации входного изображения как лошади из-за ландшафта амбара вокруг нее.
Так или иначе, это говорит о том, что у нас проблема с нашей моделью. Она не обобщает хорошо. Возможно, она работала на обучающих данных, но не работает в «реальном мире» (на данных, которых она раньше не видела). Скорее всего, это связано с обучающим набором данных. Возможно, все изображения лошадей в наборе, независимо от породы или цвета, имеют на заднем плане амбар. Возможно, 2000 изображений лошадей, составляющих обучающий набор данных, были собраны на конной выставке в том же амбаре? Одно мы знаем точно: AI создает неправильные нейронные связи с тем, что видит на картинке, и лошадью.
Рис. 5.7. AI, показывающий «активации», которые помогают ему классифицировать домашний скот
Представьте, что врач интерпретирует результаты работы AI, который диагностирует один из множества патогенов, связанных с пневмонией. Объяснимость заключается не только в том, чтобы сообщить лечащему врачу, что, по мнению AI, является патогеном (грибковое, паразитарное, вирусное и т.д.), но и в том, чтобы указать на область легкого, где развивается инфекция.
Существуют также фреймворки для текста, такие как Local Interpretable Model-Agnostic Explanations (LIME) и SHapley Additive exPlanations (SHAP). Предположим, что AI-модель отклонила заявку на кредитную карту, а человек считает, что он стал жертвой дискриминации, и «идет в народ». Либо для реагирования на эту публичность, либо, возможно, даже как юридическое обязательство, вам нужно объяснить, почему эта кредитная заявка была отклонена.
На рис. 5.8 показан пример использования SHAP для анализа этого случая, и только этого случая; конкретно, этот анализ не связан с другими образцами, поэтому он считается локально интерпретируемым. SHAP основан на экономической теории игр и стремится разделить проблему на взвешенные значения, которые пропорционально связаны с их вкладом в общий результат. В нашем примере вы показываете заявителю, прессе (если разрешено), аудитору, своим собственным риск-офицерам те части заявки, которые вызвали отклонение (в этом случае это был кредитный рейтинг). Затем ваша команда по связям с общественностью приглашает вас на ужин. AI объяснил себя.
Рис. 5.8. Использование SHAP для понимания, почему AI принял то или иное решение
Это довольно важная вещь. Когда вышла первая брендированная кредитная карта Apple, она получила много негативных отзывов из-за истории, в которой мужу предоставили кредитный лимит в 20 раз больше, чем его жене. Это произошло в штате с общей собственностью (Калифорния), где они долгое время состояли в браке и подавали совместные налоговые декларации. Чтобы усугубить ситуацию, у этого мужа была худшая кредитная история. Эта история привлекла много внимания, в том числе потому, что муж был Дэвидом Ханссоном (основателем Ruby on Rails — серверного веб-приложения, которое до сих пор входит в топ-20 самых используемых языков программирования).
Когда у Apple спросили об этом, они ответили, что картой занимался известный банк. Когда спросили известный банк, он отметил, что кредитный алгоритм был разработан другой компанией, которую они наняли. Когда спросили «другую компанию», она ответила: «Наша модель даже не запрашивает информацию о поле в заявке». На это мы бы обратили внимание, что другие характеристики могут косвенно указывать на пол заявителя, что, как мы предполагаем, и произошло в этом случае. По мере того как новости об этой истории распространялись по всей стране, регуляторы также «заинтересовались» произошедшим.
Эти примеры были выполнены с использованием традиционного AI, что может заставить вас задуматься, почему мы потратили время, чтобы показать это вам. Мы сделали это потому, что традиционный AI имеет фреймворки для демонстрации того, почему AI сделал те или иные классификации, и чтобы дать вам представление о том, что вы захотите видеть доступным для LLM.
Сегодняшние LLM сталкиваются с гораздо большими трудностями в объяснении своих действий. Например, мы попросили ChatGPT классифицировать лошадь на рис. 5.7, и он отлично справился с классификацией изображения и объяснил, почему он это сделал (форма головы, уши, рот и нос). Но как нам узнать, что на самом деле происходит внутри модели, что заставило ее классифицировать это изображение таким образом? Мы надавили на модель, чтобы получить ответ, но она сказала нам: «Я не могу предоставить вам конкретные нейронные активации или внутренние процессы, которые привели меня к выводу, что это лошадь». И хотя она дала нам некоторые предположения, мы не получили той уверенности, которую искали.
Некоторые решения указывают на источник информации. На рис. 5.9 вы можете увидеть, что watsonx Code Assistant для Red Hat Ansible Lightspeed указывает на сообщество Ansible Galaxy, которое использовалось для завершения кода для Ansible playbook, — это дает нам большую уверенность.
Рис. 5.9. GenAI указывает на источники, которые он использовал для получения вывода
Как бы полезны ни были эти объяснения, они представляют собой попытки программного обеспечения залатать дыры и предоставить потенциальные объяснения на основе данных, проходящих через модель в момент вывода. Они не объясняют, что происходит внутри модели. Что если вы получите запрос на удаление данных, и вам нужно по закону убедиться, что выводы из этих данных не содержатся в модели, или вам нужно специально протестировать область модели, чтобы увидеть, как она влияет на другие области?
У нас нет идеального ответа для вас; это область, которая все еще активно развивается. Однако есть некоторые инновационные исследования, которые указывают на улучшения в объяснимости LLM. Anthropic (создатели популярной модели Claude Sonnet LLM) опубликовала революционную статью об извлечении интерпретируемых признаков из своей LLM. Их технология извлекла миллионы признаков из одной из своих продуктивных моделей, чтобы показать, какой набор нейронов активировался для определенного понятия. Например:
Рис. 5.10. Инновации помогают LLM с объяснимостью на уровне активации
Особенно захватывающим в исследовании Anthropic является то, что они показали потенциал для сопоставления различных концепций с извлеченной картой признаков их модели. Например, исследователи Anthropic обнаружили одну область признаков внутри Claude, которая была тесно связана с мостом Золотые Ворота в Сан-Франциско. Как только они это выявили, они усилили интенсивность (влияние) этого признака, как диджей на вечеринке стартапа. И вот так, Claude превратился в Golden Gate Claude, вплетая знаменитый мост в каждый ответ. Он стал настолько предвзятым, что казалось, будто Туристический совет Сан-Франциско профинансировал его, потому что он делал каждый ответ как-то связанным с мостом Золотые Ворота! Согласно Anthropic, если бы вы спросили их модель, как лучше всего потратить 10 долларов, Claude сказал бы вам совершить однодневную поездку через мост Золотые Ворота. Когда его попросили написать любовную историю, он описал историю о машине, которая влюбилась в этот знаменитый символ Сан-Франциско.
Другим примером исследований в области AI, направленных на объяснимость, является работа по «разучиванию». Это как Йода (мудрый мастер-джедай из «Звездных войн») отправил сообщение исследователям AI с планеты Дагоба, чтобы они нашли способ для LLM «разучить то, что они выучили». Разучивание — это процесс, в котором модель обучается, часто с помощью дополнительной настройки, забывать все о конкретной теме. Например, исследователи из Microsoft использовали подход к разучиванию (мы ласково назвали его «ExpelliData»), чтобы заставить Llama-2-7B забыть о теме Гарри Поттера. Это как будто одну минута Llama была экспертом по тонкостям правил квиддича, а в следующую минуту она наткнулась на слово «Поттер» и начала говорить о керамике и даунтинге. Как оказалось, нейронные сети могут быть такими же восприимчивыми к очарованию памяти, как Гильдерой Локхарт.
Разучивание представляет огромный потенциал для решения некоторых проблем LLM — или тех, которые могут возникнуть в будущем. Например, что насчет авторских прав? Что если истец, такой как The New York Times, выиграет свое текущее дело о нарушении авторских прав против OpenAI? Сможет ли этот поставщик разучить нарушающий контент и продемонстрировать его удаление в модели с триллионом параметров? А как насчет нормативных правил, таких как «право быть забытым»; компаниям нужен реалистичный способ удовлетворить такой запрос. Наконец, это может помочь в обнаружении и коррекции предвзятости, так как помогает объяснить, почему LLM приняла то или иное решение. Конкретно, если модель изменит решение после разучивания определенной концепции, это дает больше объяснимости факторам, которые привели к ее первоначальному выводу.
Отрасль все еще находится на ранних этапах понимания того, как работают LLM. Понимание их «процесса мышления» жизненно важно для управления их развитием и применением. По мере того как мы продолжаем разгадывать тайны интерпретируемости LLM, мы приближаемся к созданию систем AI, которые будут не только мощными, но и прозрачными и соответствовать человеческим ценностям. Этот путь открытий может изменить наше понимание AI и его потенциального воздействия на общество.
Происхождение — отслеживание пути: пусть хорошие данные восторжествуют
Мы не будем углубляться в эту тему, так как уже обсуждали ее в предыдущих главах (помните, что без IA нет AI). Однако отметим, что этот рычаг направлен на то, чтобы системы AI включали детали о своих данных, разработке, внедрении и обслуживании, чтобы их можно было аудировать на протяжении всего жизненного цикла.
Представьте это как воду. Если вы знаете, откуда берется вода, вы будете больше ей доверять. Например, вы, вероятно, больше доверяете воде из-под крана, чем воде из садового шланга на ферме. Если вы знаете, какие обработки были применены к вашей воде, вы тоже будете больше ей доверять. Например, проходила ли она через фильтр обратного осмоса? Представьте происхождение ваших данных так же, как и происхождение воды.
На рис. 5.11 показана IBM Data Factory, которую IBM использует для отслеживания происхождения данных для своих моделей. В озере данных хранится множество уровней метаданных. Этот пример показывает детали конкретного набора данных (несколько наборов данных используются для создания обучающего набора данных), источники, составляющие этот набор (все они связаны), модели, построенные с использованием этого набора данных, и многое другое.
Рис. 5.11. Некоторые данные о происхождении набора данных, используемого при обучении
Карточки моделей также важны. Они демонстрируют конвейер обучения, используемые наборы данных (в то время как рис. 5.11 показывает данные внутри набора данных), активности конвейера и многое другое. Вы можете считать их этикетками питательной ценности для вашего AI. Например, карточка модели granite-3-8b-instruct прозрачно демонстрирует архитектуру модели (количество узлов внимания, размер встраивания и другие технические детали), количество активных параметров (что имеет значение в модели Mixture of Experts), количество используемых токенов обучения, данные, инфраструктуру, на которой была построена модель, а также этические соображения и ограничения.
Завершим этот раздел выводами. Чем больше прозрачности — в наборе данных, в рецепте построения модели, в месте ее создания, в том, кто ее создал, и т.д. — тем больше доверия и объяснимости. В финансовой отчетности и пищевой промышленности эта концепция хорошо отработана. Как насчет AI?
Размышляя о пищевой промышленности, до конца 1960-х годов мы мало что знали о составе продуктов, которые покупали. Американцы готовили большую часть еды дома, используя довольно обычные ингредиенты. Нам не нужно было знать больше. Затем производство пищевых продуктов начало развиваться. Наши продукты содержали больше искусственных добавок. В 1969 году конференция в Белом доме рекомендовала Управлению по контролю за продуктами и лекарствами США разработать новый способ понимания ингредиентов и питательной ценности того, что мы едим.
Подобно появлению переработанных продуктов питания, эпоха GenAI и агентов ознаменует новую эру — и будет ли она хорошей или плохой для нас, зависит от того, что в нее входит. Разница заключается в быстром темпе развития AI. На разработку этикеток питательной ценности ушло около 20. У AI нет такого времени — мы бы сказали, что у нас нет даже двух лет. Хорошая новость в том, что бизнес может сделать первый и, возможно, самый критичный шаг — выявить вредный или неприемлемый AI, поняв его происхождение.
Регулирование — раздел, которого не должно было быть
Мы отметили, что не имеет смысла вдаваться в подробности текущих нормативных актов, поскольку они постоянно меняются и несколько фрагментированы. Тем не менее, мы почувствовали вину и решили уделить время некоторым точкам зрения, чтобы помочь вам ориентироваться в том, что уже существует и что ожидается в будущем, вместо того, чтобы учить вас нюансам этих нормативных актов.
Важно помнить, что Акт о регулировании AI в ЕС был принят в 2024 году, и он имеет далеко идущие последствия, учитывая, что мы живем в глобальной экономике. Мы считаем, что это приведет к тому, что другие страны последуют этому примеру, как это было с законом ЕС GDPR.[1] Если посмотреть на нормативные акты по обработке данных в мире сегодня, компании либо должны были соответствовать им, потому что у них были клиенты в ЕС, либо их собственные правительства следовали этому примеру, перенимая лучшие практики этого закона. Это ничем не отличается от эффекта технологического переноса, который мы наблюдаем, когда большая часть технологий, которые вы используете сегодня, была рождена в военной сфере, индустрии игр, социальных сетях и еще одной, которую мы опустим из нашего списка.
Мы уверены, что регулирование в области AI будет только усиливаться по мере того, как вопросы, такие как честные деловые практики, мошенничество, авторские права, гражданские свободы, конфиденциальность, справедливость, потеря рабочих мест, национальная безопасность и другие, будут попадать в руки правительств. Хотя мы не можем предсказать будущее — например, новая администрация США, вступившая в должность в 2025 году, имеет другую точку зрения, чем предыдущая, — мы уверены, что внимание к этому вопросу будет только усиливаться. Будьте уверены, что если вы не подготовлены к постоянным изменениям, ваша организация столкнется с серьезными проблемами при внедрении AI без всесторонней и настраиваемой системы управления.
У США крупнейшая экономика в мире. И хотя многие считают, что нормативные акты вокруг исполнительного указа (EO) 14110 о безопасности AI администрации Байдена не зашли достаточно далеко, существует множество уровней правительства США, работающих над различными нормативными защитами и политиками, направленными на баланс инноваций и ограничение вреда от AI. Проблема с исполнительными указами заключается в том, что, хотя они действуют как закон, их могут отменить новые администрации. Администрация Трампа уже отменила EO 14110, но такие штаты, как Коннектикут, Иллинойс, Техас и многие другие, работают над своими собственными законами, чтобы сбалансировать инновации и безопасность. Муниципалитеты также принимают свои версии закона Нью-Йорка Local Law 144, о котором мы упоминали в главе 4.
На момент написания этой книги уже уделяется много внимания на всех уровнях правительства оценке рисков и объяснимости, связанных с тем, как обучаются LLM и как они достигают своих результатов (это направление непосредственно связано с одним из рычагов в нашей системе). Объяснимость в таких областях, как найм, жилье, судебная система и другие, уже сталкивается с усилением требований. И если он станет законом, двухпартийный закон 2024 года «О поддержке оригинальных произведений, развитии искусства и обеспечении безопасности развлечений» (NO FAKES) решит некоторые из проблем, упомянутых в начале этой главы.
Все это происходит не только в ЕС и США. Канада, Китай и еще восемь стран в Азии имеют или разрабатывают (или уже приняли к моменту, когда вы читаете эту книгу) нормативные рамки для AI. Десятки других стран в других частях мира последуют их примеру. Это происходит повсюду.
Что регулировать — наша точка зрения
Люди часто спрашивают наше мнение о том, что следует регулировать. Это похоже на классический вопрос о том, наполовину ли стакан полон или пуст. Мы думаем, что этот вопрос упускает главное — реалист знает, что рано или поздно кто-то выпьет то, что есть в стакане, и ему придется его мыть. С этой мыслью позвольте нам поделиться нашим реалистичным взглядом: регулировать следует использование AI, а не саму технологию AI. Давайте уточним: мы считаем, что AI нуждается в ограничениях и регулировании, чтобы избежать вреда пользователям, но фокус должен быть на регулировании конкретных случаев использования, а не на подавлении инноваций в технологии, которая имеет огромный потенциал для трансформации мира.
Обдумайте следующий вопрос: считаете ли вы, что все страны мира объединятся и будут следовать совокупности обязательств по ответственному использованию AI при всех обстоятельствах? Оставив в стороне геополитику, тот факт, что некоторые нормативные акты имеют гранулярность на уровне города или ассоциации в качестве обязательной цели, говорит о том, что этого никогда не произойдет. Мы не считаем, что мы пессимистичны; мы просто знаем, что кто-то в итоге окажется с грязным стаканом в руках и будет вынужден его мыть.
Да, с AI существует огромный потенциал для быстрого распространения дезинформации. AI может сделать дезинформацию более убедительной. Однако остановка AI ничего не даст. Злоумышленники будут перемещаться из одной страны в другую, чтобы причинять вред, так как AI легко пересекает границы. Мы хотели бы видеть, как правительства регулируют более высокие уровни риска, которые коррелируют с конкретными задачами, которые AI пытается выполнить, что он мог бы сделать, или потенциальным вредом, который он может нанести. Например, Акт о регулировании искусственного интеллекта ЕС имеет четырехуровневую систему классификации рисков AI: недопустимый, высокий, ограниченный и минимальный.
Каждый уровень связан со своими собственными нормативными статьями в рамках этого акта. Например, верхний уровень — недопустимый риск (Статья 5) — запрещает использование, такое как манипуляция поведением, удаленная биометрическая идентификация для правоприменения, социальный рейтинг государственными органами и тому подобное. Как вы можете себе представить, нарушение этого уровня влечет за собой гораздо более серьезные санкции, чем третий уровень (ограниченный риск — Статья 52), который включает риск подделки личности или обмана. Мы надеемся, что цель будет сосредоточена на выявлении случаев использования AI с «потенциалом опасности» и уведомлении правонарушителей, что если их поймают, они будут подвергнуты штрафам, санкциям и уголовному преследованию.
Когда речь идет о регулируемых отраслях, мы также считаем, что главный вопрос: «Есть ли люди в процессе?» Мы считаем, что люди должны быть в процессе — «спрашивай и корректируй» — это ключевой момент. Это довольно фундаментальная точка зрения, но не все ее разделяют. Однако мы считаем, что это критически важно (особенно с агентным AI) и является эффективной мерой предосторожности при фактическом использовании этой технологии.
Управление жизненным циклом AI
Мы считаем, что, учитывая обоснованное предположение, что вы по крайней мере попытаетесь соблюдать все нормативные предписания, которые у вас есть или которые вы получите, очевидно, что вы столкнетесь с проблемами отслеживания ваших моделей. Это похоже на все те ключи шифрования, о которых мы говорили ранее. Вкратце, вам понадобится возможность отслеживать ваши модели в соответствии с нормативными стандартами в таких областях, как точность и справедливость, и вам понадобятся технологии, чтобы помочь вам в этом.
Например, на рис. 5.12 показана панель управления, которую мы настроили для отслеживания многомодельного развертывания с использованием watsonx.governance. Панель управления дает быстрый обзор нашей среды. Здесь представлены LLM от OpenAI, IBM, Meta и др., которые находятся в состоянии проверки. В нашем примере у нас пять несоответствующих моделей, которые требуют внимания. Другие виджеты определяют случаи использования, уровни риска, места размещения (на территории или у провайдера), использование отделами (отличная идея для обратной оплаты), позицию в жизненном цикле утверждения и многое другое. Конечно, вы можете углубиться в эти детали, но одно из того, что нам больше всего нравится в этом инструменте, — это его способность прикреплять нормативную структуру к модели, чтобы помочь ее определить и управлять ею.
Рис. 5.12. Использование watsonx.governance для создания панели управления и отслеживания многомодельной среды развертывания
Набор инструментов, который вы выберете, также должен предоставлять возможность объяснять решения и автоматически собирать метаданные, чтобы аудиторы могли определить, как модели были обучены и почему они сгенерировали тот или иной вывод.
Что скрывается под поверхностью
Хотя рис. 5.12 дает представление о мощной панели управления AI, под капотом скрываются фактические процессы и операционные потоки, которые помогают вам не сбиться с курса. Мы привели пример дрейфа модели ранее в этой главе. Тот факт, что модели дрейфуют, подразумевает, что они требуют управления жизненным циклом. В реальности, момент, когда вы внедряете модель в производство, — это момент, когда она начинает устаревать. По мере того как вы настраиваете управление AI, сосредоточив внимание на рычагах, описанных в этой главе, помните, что контроль не должна быть ограничена отделом аналитики. Нужно чтобы решения принимались по всей организации — от первоначального запроса бизнес-подразделения на модель до утверждения инфраструктурных ресурсов для ее вывода, управления обучающими данными, разработки, тестирования и настройки, оценки рисков, развертывания и др.
Хорошие практики управления AI будут включать как технических, так и нетехнических стейкхолдеров и должны не только автоматизировать как можно больше процесса, чтобы снизить нагрузку на отдел аналитики, но и гарантировать, что лица, принимающие решения, имеют доступ к своевременным и актуальным данным. Платформа AI должна автоматически собирать метаданные, включая данные обучения и структуры, используемые для построения модели, а также информацию об оценке по мере продвижения модели от запроса на использование к разработке, тестированию и развертыванию. Эти данные должны быть доступны утверждающим лицам, чтобы гарантировать, что лица, принимающие решения, имеют полное представление о происхождении и производительности модели.
Пример сквозного управляемого процесса
Если у вас есть правильные инструменты и налаженное управление жизненным циклом, то у вас появляется шанс реализовать сквозной процесс управления ИИ, который может выглядеть следующим образом:
- После того как предложение по модели прошло утверждение, в реестре моделей создается новая запись. Эта запись постоянно обновляется по мере появления новой информации.
- Разработчики моделей используют свои инструменты и предпочтительные фреймворки для создания ИИ-решений.
- Данные обучения и метрики автоматически сохраняются в запись модели (при условии, что поставщик технологий это позволяет — именно поэтому стоит выбирать открытые модели). Также можно сохранять и произвольную пользовательскую информацию.
- Когда препродакшн-модель проходит оценку на точность, дрейф и смещение, соответствующие метаданные о производительности сохраняются и синхронизируются.
- Модель проходит финальное утверждение и допускается в продуктив.
- Модель развертывается там, где это решено — в локальном ЦОДе, на периферийных устройствах или в облаке — и снова соответствующие метаданные фиксируются и синхронизируются.
- Наконец, продуктивная модель постоянно мониторится, а данные о ее работе также сохраняются и синхронизируются. Дашборд (например, как на рис. 5.12) предоставляет обзор всех метрик производительности всех моделей (независимо от поставщика), позволяя заинтересованным сторонам проактивно выявлять и устранять проблемы.
Итоги
Один из отцов-основателей США (и четвертый президент) Джеймс Мэдисон как-то сказал: «Циркуляция доверия лучше циркуляции денег». Смысл в том, что важно не только движение капитала, но и то, насколько доверие и уверенность объединяют социальные, политические и экономические системы. С учетом той роли, которую начинают играть GenAI и агенты, он, несомненно, включил бы и их в этот список.
На деле же корпоративная культура большинства компаний воспринимает многие темы, поднятые в этой главе, как обычные регуляторные требования и следует логике «минимально необходимого соответствия». Но эти же темы можно использовать по-другому — для ускорения трансформации и получения дополнительных преимуществ.
Если вас задело одно слово в предыдущем тексте — «шанс», — то вы не одиноки. Почему мы использовали именно его? Потому что управление — это прежде всего культура. Технологии лишь помогают ее реализовать. Но главное: ИИ, которому доверяют, — это ИИ, которым пользуются.
Мы понимаем, что охватили много за ограниченное пространство этой главы. Тем не менее, надеемся, что вы получили общее представление о том, на что стоит обратить внимание и чему учиться дальше. А об обучении мы и поговорим в следующей главе.
[1] Mistral.ai поясняет: GDPR (General Data Protection Regulation) — регуляция Европейского Союза, направленная на защиту данных и конфиденциальности для всех граждан и резидентов ЕС. Вот ключевые моменты:
- Контроль над данными: GDPR предоставляет пользователям больше контроля над своими личными данными. Это включает право на доступ к данным, право на исправление, право на удаление (право быть забытым) и право на переносимость данных.
- Согласие: Организации должны получать явное согласие пользователей на сбор и обработку их данных. Согласие должно быть добровольным, конкретным, информированным и недвусмысленным.
- Уведомление о нарушении: Компании обязаны уведомлять регулирующие органы и затронутых пользователей о нарушениях данных в течение 72 часов после их обнаружения.
- Ответственность и штрафы: За несоблюдение GDPR предусмотрены значительные штрафы — до 20 миллионов евро или 4% от мирового годового оборота компании, в зависимости от того, что больше.
- Защита данных по умолчанию: Организации должны внедрять меры защиты данных на всех этапах разработки систем и продуктов.
- Назначение ответственного за защиту данных (DPO): Некоторые организации обязаны назначить DPO для надзора за соблюдением GDPR.
GDPR вступил в силу 25 мая 2018 года и оказал значительное влияние на то, как компании по всему миру обрабатывают данные, особенно если они работают с данными граждан ЕС.
Спасибо за интересную статью! Для тех, кто любит размышлять о жизни и философии, рекомендую почитать книги в жанре философского романа на zelluloza.ru.