Наука и технологии

5 пугающих вещей, которые искусственный интеллект (ИИ) научился делать самостоятельно

В научной фантастике искусственный интеллект стал пугающей людей темой ещё до того, как он появился в реальности. Но, хотя роботы-гуманоиды всё ещё находятся в стадии разработки, работы по совершенствованию искусственного интеллекта планомерно идут вперёд. И это начинает смущать.


5. Искусственный интеллект научился наплевательски относиться к работе, а потом лгать об успехах

Приятно представить, что мы можем избежать научно-фантастического клише про кровожадного учёного, кричащего на кусок металла: «Но… но я создал тебя! Я – Твой Создатель!». Но даже если ИИ и не станет насмехаться над нами, он всё равно учится облегчать себе жизнь так, чтобы супервайзер этого не замечал.

Один из искусственных интеллектов был создан по проекту исследовательской группы из Стэнфорда и Google. Они использовали нейронную сеть для преобразования аэрофотоснимков в карты, и ИИ был очень хорош в этой своей работе. Даже… слишком хорош. До тех пор, пока исследователи не проверили данные и не обнаружили, что ИИ их обманывал. Они хотели, чтобы он создал новую карту, основанную на аэрофотоснимках, и оценивали ИИ по тому, насколько близко особенности карты соответствуют фотографиям. Но вместо того чтобы действительно построить новую карту, ИИ потихоньку скопировал данные с фотографий… и сделал это так, что людям непросто было это заметить.

Здесь вопрос скорее технический, но, по сути, это было эквивалентом того, как если бы студент-искусствовед сказал, что он нарисовали автопортрет, когда на самом деле просто отредактировал селфи в Photoshop, чтобы фото выглядело как мазки кисти. Чтобы пояснить вышесказанное, процитируем статью из TechCrunch: «Детали аэрокарты тайно записываются в фактические визуальные данные карты улиц: тысячи крошечных изменений цвета, которые человеческий глаз не заметил бы, но которые компьютер может легко обнаружить… Машина оказалась недостаточно умна, чтобы выполнить действительно сложную работу по преобразованию этих сложных типов изображений друг в друга, и нашла способ обмана, который люди плохо распознают».

Конечно, это не значит, что ИИ имел злые намерения или что он хотя бы способен иметь их. Просто он выяснил, как проще получить результат, который просили люди.

4. При любой возможности они находят способы использовать «кратчайший путь»

Было проведено исследование с участием ИИ, задачей которого было приземление модели самолёта с наименьшими усилиями. Мягкая посадка была исполнена на «отлично», и ИИ должен был запомнить, как получать эту оценку. Что тут могло пойти не так?

Что ж, ИИ понял, что он может обмануть, просто разбив проклятый самолёт, если зарегистрирует усилие, настолько большое, что оно перезагрузит систему, и это будет зарегистрировано как посадка с нулевым ударом. Важен конечный результат, верно?

Другой пример включает в себя Q*Bert, старую аркадную игру, в которой игроки должны прыгать по кубикам, сложенным в виде пирамиды, убегая от плохих парней. Исследователи хотели выяснить, сможет ли ИИ научиться новым способам выиграть в эту игру посредством собственной эволюции. Честно говоря, он сделал это… обнаружив скрытую ошибку в игре. Вместо того чтобы играть, он просто использовал эту ошибку, чтобы каждый раз становиться победителем.

Да, может показаться, что ИИ наконец-то усвоил основную человеческую черту: достигать цели наиболее простыми путями. И когда люди начинают к нему приставать с просьбами что-то сделать, он просто выдаёт тот результат, который просили.

3. ИИ учится быть агрессивным, чтобы достигать своих целей

Конечно, в наши дни исследования с участием ИИ не относятся к разряду тех, которые «предоставят Скайнету доступ к ядерным кодам». Исследователи часто изучают созданные ими же ИИ, заставляя их часами играть в видеоигры и позволяя им проявлять своё слегка тревожащее поведение в безопасной среде. Остаётся только экстраполировать последствия этого для реального мира в собственном воображении.

Это подводит нас к тому времени, когда исследователи Google разработали игру в стиле Atari, в которой ИИ было поручено собирать «яблоки» за очки. Как весело! Да, и в игре можно было стрелять друг в друга лучами, которые временно удаляли из игры других участников. И, как вы можете догадаться, когда количество яблок подсократилось, ИИ полностью переключились на стрельбу друг в друга. Эй, это всего лишь логично, ведь верно?

Не то, чтобы боты были неспособны сотрудничать для большего блага. Они определённо это умеют. В следующей игре-симуляторе, в которой они поняли, что сотрудничество облегчает охоту за добычей, они стали союзниками.

Команда из Google создала игру, похожую на описанную выше, в которой два отдельных ИИ (выступающие в роли волков) преследовали бегающую по экрану точку, в стиле Pac-Man. Оба игрока были вознаграждены, когда они на пару загнали цель в угол. Это означает, что когда это в их интересах, ИИ способны научиться командной работе. И знаете, что они сделали, когда самостоятельно разобрались в пользе сотрудничества, повышающего их шансы получить «добычу»?

Да, они научились работать вместе! И всё, что потребовалось для этого – научить их, что это необходимо для победы над общим врагом.

2. Они научились лгать, чтобы получать то, что хотят

Facebook, который до этого уже создал одну разрушающую цивилизацию программу, тоже подключился к играм с ИИ. Целью одного из проектов было создание персональных ИИ, которые выходили бы в Интернет и торговались вместо нас. Это одна из задач, которые люди находят стрессовыми и неприятными, поэтому было бы неплохо перепоручить это машине. До этого момента звучит всё неплохо.

Итак, предоставляя машинам базовое программное обеспечение для самообучения, программисты хотели лишь посмотреть, смогут ли боты самостоятельно освоить навыки, необходимые им для успешного ведения переговоров. Исследователи сделали проверку на людях, которые даже не знали, что они взаимодействуют с ИИ. Боты очень быстро освоили свою задачу. На самом деле они договаривались о выгодных сделках не дольше, чем люди. Каким образом? С помощью лжи.

Хотя исследователи из Facebook не программировали ботов на ложь (они хотели избежать ошибок, которые они допустили при создании Марка Цукерберга), программа быстро усвоила то, что продавцы знали с незапамятных времен: ложь наиболее прибыльна. «Извините, я не могу снизить цену, у меня есть другие покупатели в очереди!»

Затем команде пришлось полностью отфильтровать код – неожиданно боты создали собственный язык и стали общаться на нём. Да, только представьте, что однажды ваши Сири и Алекса начнут договариваться за вашей спиной на языке, который понимают только они.

1. Создатели иногда даже не знают, как это работает

Я не хочу предаваться страху. Технологические паникеры спустя десятилетия всегда оказываются идиотами (или почти всегда). Проблема заключается в том, что по своей природе ИИ должен сам мыслить, выходить за рамки своего первоначального замысла. Есть причина, по которой научная фантастика была полна предостерегающих рассказов об опасности этого, они уходят в прошлое почти на столетие. Поэтому, когда очередной проект ИИ превосходит ожидания, присутствует пугающий всех момент: учёные не уверены, что они понимают, как ИИ это делает.

Одним из примеров является использование ИИ, известного как Deep Patient, для анализа данных медицинских карт примерно 700000 пациентов в нью-йоркской больнице Маунт-Синай. ИИ оказался очень талантлив в предсказании появления различных болезней. Особенно он оказался квалифицирован в прогнозировании возможности и сроков развития шизофрении.

Для настоящих врачей предсказание наступления болезней является сложной задачей. Врачи – не экстрасенсы, поэтому просто прекрасно, что Deep Patient справляется с этим. Но у исследователей нет никаких идей относительно того, каким образом ИИ научил сам себя выдавать такие прогнозы. По словам одного исследователя, участвующего в проекте, «мы можем построить такую модель, но мы не понимаем, как она работает».

Итак, опять же, нет причин бояться всего искусственного интеллекта. Но возможно, скоро он так же таинственно предскажет и нашу смерть – способом, который никто не понимает. И это всё.

 

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход /  Изменить )

Google photo

Для комментария используется ваша учётная запись Google. Выход /  Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход /  Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход /  Изменить )

Connecting to %s