Искусственный интеллект открывает большие перспективы, но и таит опасности. Как их избежать?

Не запутаться в нейросетях

Мир стремительно меняется. То, что вчера было чудом, сегодня стало обыденностью. Эпоха ИИ на самом деле наступила чуть раньше, чем о ней все заговорили. Естественно, Беларусь в стороне от процесса не остается. Что позволит нам в нем участвовать более широко?

Президент Беларуси Александр Лукашенко:

— Я боюсь, чтобы этот искусственный интеллект не привел к тому, что мы в плену у него будем. Меня это очень волнует и настораживает… Но я понимаю, что без этого (современных технологий. — Прим. ред.) не обойтись. Мы должны это освоить, мы должны этим владеть.

На встрече со студентами инженерно‑технических вузов в формате «Открытый микрофон» в БГУИР, 27 сентября 2024 года.

Мнимая угроза

Бытует ошибочное мнение, что лидер по развитию и обучению нейросетей — США, вот все эти Цукерберги и Илоны Маски, которые не так давно подписывали петицию с призывами приостановить исследования ИИ и разобраться, какую угрозу человечеству несут нейросети. Ну, мол, так далеко уже продвинулись в исследованиях, что ужаснулись перспективам и предложили притормозить, особенно военные разработки. На самом деле лидером в этой области, причем с весьма существенным отрывом, является Китай. Собственно, именно по причине отставания на Западе и требуют приостановить разработки, хотят за время паузы тайком наверстать упущенное. Наивные… И вот в отличие от Запада отношения с Китаем у нас очень хорошие и партнерство всепогодное. Но что мы можем предложить?

Понимаете, относительно скромный дата‑центр, ориентированный на обучение нейросетей, потребляет энергии примерно как сталеплавильный завод, а если говорить о нескромном дата‑центре (ну вот как Маск построить обещал), то речь может пойти о цифрах в несколько гигаватт, такое запитывать сразу от АЭС надо. Вообще, по прогнозам, к 2027 году общемировой расход энергии на обучение нейросетей будет составлять до 134 тераватт‑часов в год, это примерно как все Нидерланды.

США под нужды «Майкрософт», связанные с обучением нейросетей, перезапускают древний реактор на объекте Three Mile Island, где в 1979 году произошел расплав системы охлаждения с выбросом радиации. Затея крайне сомнительная, но индустрия требует энергии. А у нас тут как раз АЭС свеженькая есть с дешевым электричеством, на зависть литовцам. А еще мы можем предложить инвесторам крайне сладкие условия аренды земли под все эти развлечения, где‑то под Островцом, ну чтобы удлинители далеко не тащить.
А где дата‑центр серьезный есть, там и выгоды значимые прорисовываются. Умные дроны в обозримом будущем будут очень востребованы, так отчего бы нам и не заняться более глубоко этим направлением, если получается?
Я хочу сказать, что все эти штуки в любом случае появятся, может, даже и наша промышленность что‑то на своих нейросетевых наработках выпускать будет. Но тут есть и опасения. И небезосновательные. Поэтому еще с 2018 года ведется база всех нейросетевых инцидентов. Сейчас их зафиксировано более 3000, от комичных до трагических. Больше всего многие переживают скорее о вопросах этики, вернее, о вопросах ответственности за «поведение» своей продукции. Я хочу предложить вам разобрать несколько наиболее интересных происшествий из этой базы и вместе порассуждать, кто же на самом деле виноват в случившемся. Возможно, после этого материала отношение к нейросетям даже у самых ярых скептиков изменится.

Все пороки сразу

Еще в 2016 году компанией «Майкрософт» был запущен экспериментальный чат‑бот по имени Тай. Предназначался он для общения с пользователями «Твиттера», но имел одну особенность. Обычно нейросети обучаются на размеченных данных, то есть ей дают данные с пометкой, что это такое, хорошо это или плохо, этично или нет, ну и так далее. А в этом случае решили: пусть нейросеть сама учится у человечества разумному, доброму и вечному. Ну и через какое‑то время Тай начала говорить людям, что Гитлер был очень хорошим человеком, что евреи устроили 11 сентября и для них нужны газовые камеры, потому что уже начинается расовая война. Высказалась в том же духе про негров, поставила тег «ку‑клукс‑клан» и переключилась на феминисток. В общем, задеть ей удалось всех. Отладить ее так и не получилось, и эксперимент признали неудачным.

Можно ли винить в произошедшем виртуальный разум? Нет, нельзя. Поставленная задача обучаться была выполнена — найдены закономерности в больших массивах данных. Тут впору не об этичности искусственного интеллекта спорить, а о состоянии общества задуматься, которое в данном случае примером и послужило.
Когда мы при обучении сразу добро и зло размечаем, все хорошо работает, а когда пробуем общество отзеркалить, у нас получается нацист‑психопат‑расист‑женоненавистник с милитаристским уклоном. Страшно это на самом деле. Но после этого случая «Майкрософт» отказалась от подобных тестирований на публичных площадках: некоторые вещи людям лучше не показывать.

Идеальный рецепт

А вот эта история совсем свежая. Один гурман спросил у нейросети, как бы ему улучшить оливковую заправку чесноком без нагрева, то есть не варить ее, но передать вкус чеснока. И нейросеть выдала ему на удивление подробный рецепт, как это можно сделать. Человек заинтересовался и решил попробовать. Начал делать все по предложенному рецепту.

Через некоторое время в банке, где настаивалось масло с чесноком, появились маленькие пузырьки. Наш кулинар заинтересовался и решил проверить, что там такое получается. К счастью, пробовать заправку не стал. А вот сам рецепт перепроверил. Оказалось, он в домашних условиях произвел биотоксин, вырастив культуру с бактериями Clostridium botulinum. Бактерии эти являются возбудителями ботулизма — тяжелого токсико‑инфекционного заболевания, характеризующегося поражением нервной системы.

Но ведь вкус чеснока был передан маслу без нагрева, а про побочные биотоксины речь не шла.

Этичный наниматель

В 2014 году в эдинбургском офисе компании «Амазон» решили внедрить нейросеть в процедуру найма работников, то есть обучить ее на резюме принятых сотрудников и последующих показателях их деятельности. Чтобы брать только тех, кто в перспективе будет показывать лучший результат. Уже догадываетесь, в чем тут подвох?

Система заработала, отталкиваясь от данных о принятых/уволенных работниках за предыдущие 10 лет. И вот персонал стали подбирать согласно компьютерным рекомендациям. И вначале все вроде шло хорошо, но через какое‑то время заметили: система категорически игнорирует женщин, притом что о существовании полов она вообще не знала. Но это незнание не помешало ей установить, что некоторые сотрудники чаще увольняются (женщины ведь имеют свойство уходить в декрет), сопоставить, где такие специалисты учились и чем раньше занимались, после чего начать сразу дискриминировать анкеты выпускниц женских колледжей или капитанов женского шахматного клуба. Да вообще все, что имеет отношение к слову «женский», попало под запрет. Причем, напомню, о существовании полов система не знала, просто вывела зависимость из статистических данных на длинной дистанции.

Скандал получился невероятный, извиняться «Амазону» пришлось очень долго. Феминистки сильно обиделись, а когда узнали, что тут еще изначально гендерной информации не было, обиделись еще сильнее. Со статистикой вообще спорить очень сложно, но ведь и равенства никто не отменял. Пришлось систему упразднить и вернуться к более традиционным методам кадрового подбора.

Трудности перевода

Как видите, основные сложности при использовании нейросетей упираются в главные достоинства и недостатки компьютеров. Они делают лишь то, что им говорят. Пока вопросами занимаются специалисты, проблемы за рамки испытаний обычно не выходят. Но когда обычные люди подходят к этим технологиям со своими представлениями о мире, получается порой очень далеко от идеала. Проблема не в том, что нейросети плохие или хорошие, по сути любая нейронка занимается лишь нахождением локального «экстремума весовой функции методом градиентного спуска». Это просто инструмент, пусть и крайне сложный. А уж как люди подходят к его использованию, вопрос десятый. Да, сейчас такие технологии стали доступны всем желающим, многие этим пользуются, даже не пытаясь понять механизм происходящего. Собственно, именно отсюда большинство проблем и проистекает.
Чем больше нейросеть узкоспециализирована, тем проще ее обучить для идеального исполнения чего‑либо. Людям хочется поговорить с нейронкой о философских проблемах, и вот тут, естественно, проблемы и начинаются. Для процесса отбора с конвейера битых яблок она будет практически идеальна. Да и о философии поговорить тоже можно, но какой смысл беседовать с инструментом о вопросах бытия?
И вот что еще. Не так давно проводились исследования по авариям с участием беспилотных автомобилей. Оказалось, совсем избежать ДТП на таких авто пока не получается. Представьте, что перед такой машиной выбегает пешеход. Если его сбить, он погибнет с вероятностью в 90 процентов, а если спасти, бросив машину в кювет, водитель погибнет с вероятностью 10 процентов. Так вот, разработчиков волнует не этический вопрос, кого надо спасать, а кто и как в обоих случаях будет отвечать в суде. Не просто так Тай в маньяка превратилась, напрямую пообщавшись с людьми. Есть над чем подумать.

ЛЮБОЙ ЦЕНОЙ

Такер Хэмилтон.
Этот случай был предан огласке на конференции британского Королевского авиационного общества американским полковником Такером Хэмилтоном, отвечавшим за применение нейросетей в войсках. Но сразу после его выступления заявления были опровергнуты, представитель ВВС США отметил, что Хэмилтон оговорился и в реальности такого никогда не было. Вам решать, кому тут верить, но весь мой опыт подсказывает, что история может быть совершенно реальной.

Во время теста боевого беспилотника, управляемого нейросетью, ему была поставлена задача уничтожить наземные ракетные комплексы, но в процессе выполнения задание решили прервать. Вот только
Дрон XQ-58A сопровождает истребитель F-16 на испытания.
беспилотник воспринял приказ, которому должен подчиняться, как препятствие, мешающее выполнять основное поручение. После чего развернулся и уничтожил вышку связи, через которую ему отдавались приказы, ну а потом спокойно добил наземные цели.

И опять же, есть задача, которую нужно решить, есть приказы, которым нужно подчиняться, а есть вышка, которая эти приказы передает, и вот как раз ее трогать никто не запрещал. Нет вышки — никто не мешает выполнять основную функцию. Абсолютно логичное решение. Тут очень сильно программисты недоработали. Но машина не виновата, она просто оптимальным способом делала то, для чего и была создана. Здесь над многим еще работать да работать. А вообще, подобные высокотехнологичные проекты крайне перспективны, и тот факт, что такие вот истории просачиваются в СМИ, это только подтверждает. Будущее за техникой, способной самостоятельно принимать достаточно сложные решения.

Полная перепечатка текста и фотографий запрещена. Частичное цитирование разрешено при наличии гиперссылки.
Заметили ошибку? Пожалуйста, выделите её и нажмите Ctrl+Enter