Наука и технологии

4 шага для разработки ИИ, которому человек будет полностью доверять

Сегодня системы искусственного интеллекта используют, чтобы помочь людям принимать решения во множестве отраслей. ИИ помогает врачам систематизировать тысячи историй болезни; фермерам служит для точного определения количества воды, которое требуется каждому отдельному растению; страховым компаниям — быстрее рассчитывать выплаты.


ИИ способен обработать большое количество данных, чтобы предоставить пользователям средоточие бесценных идей и знаний.

Однако широкое внедрение систем ИИ не состоит исключительно из преимуществ. Многие из развивающихся инструментов ИИ имеют дело с крайне важными данными людей, сообществ или организаций. Отсюда необходимость доверять их работе. Что нужно, чтобы заслужить это доверие?

Чтобы убедиться, что мы разрабатываем и развертываем системы ИИ со всей ответственностью, необходимо организовать сотрудничество со многими заинтересованными сторонами, в том числе политиками и законодателями. Но в первую очередь инструменты ИИ должны изучить деятели науки. Мы, как поставщики технологий, должны отвечать за разработку и применение технологических инструментов для создания надежных систем ИИ.

Александра Мойсилович считает, что исследователям целесообразно брать на себя ответственность. Это позволит направить ИИ по правильному пути.

Построение доверия

Чтобы доверять системе ИИ, мы должны быть уверены в ее решениях. И знать, что принятое решение будет одновременно и надежным, и справедливым, что его можно принимать во внимание и что оно в любом случае не навредит. Нам нужна уверенность в том, что его нельзя сфальсифицировать извне, что сама система защищена.

Ответственность, справедливость, понятность, устойчивость и безопасность являются основой надежного ИИ. Однако сегодня при разработке новых систем ИИ и технологий в основном их оценивают, основываясь на точности испытаний и экспериментов, перекрестных проверок и соотношении затрат и выгод.

Мы контролируем использование и производительность в режиме реального времени, но не разрабатываем, не оцениваем и не контролируем доверие. Для этого нужно начать с определения базового доверия системам ИИ, а затем разработать инструменты и методы для их интеграции в процесс разработки.

Речь идет о том, что разработчикам нужно выйти за пределы точности, а также научиться измерять и сообщать о производительности системы по каждому из этих измерений. Мойсилович выделяет четыре основные части инженерного «инструментария», которыми мы располагаем в отношении доверия к ИИ.

1. Справедливость. Информация о предвзятости систем ИИ привлекла внимание как технического сообщества, так и широкой общественности. Если мы хотим поощрять внедрение ИИ, нужно обеспечить максимально толерантное отношение машин, не допустить распространение пороков людей в их управление в процессе обучения.

Исследовательское сообщество добилось прогресса в понимании того, как предвзятость влияет на принятие решений ИИ. Сейчас ученые и разработчики заняты созданием механизмов для повышения равного отношения ко всем людям на протяжении всего цикла работы ИИ:

  • учебные модели;
  • проверка данных, алгоритмов и утилит для обнаружения некорректных воззрений;
  • регулирование неравенства, если оно обнаружено.

Хотя еще многое предстоит сделать, имеет смысл уже сейчас приступить к внедрению принципов проверки предвзятого отношения машины и смягчения последствий при проектировании, тестировании, оценке и учете решений ИИ.

2. Надежность. Когда дело доходит до больших наборов данных, нейронные сети являются инструментом выбора для разработчиков ИИ и дата-сайентистов. Несмотря на то, что модели глубинного обучения могут демонстрировать сверхчеловеческую классификацию и способности к распознаванию определенных характеристик, их можно легко обмануть, заставляя принимать неправильные решения, внося небольшие корректировки, часто незаметные для человека.

Выявление и устранение уязвимостей в программных системах — это то, с чем некоторое время назад уже сталкивалось техническое сообщество. Поэтому сейчас предыдущие алгоритмы просто переносятся в плоскость работы ИИ.

Недавно произошел настоящий взрыв исследований в этой области: постоянно идентифицируются все новые возможные угрозы для системы. В настоящее время разрабатываются новые методы борьбы со слабыми местами и показатели для оценки устойчивости систем ИИ. Мы приближаемся к тому моменту, когда сможем интегрировать их в общие процессы ИИ — DevOps — для защиты и обеспечения реалистичных нейронных сетей и систем, в основе которых лежат эти сети, для работы на производствах.

3. Толкование алгоритмических решений. Еще одна проблема, которая достигла пика обсуждений в последнее время, — это страх, что системы машинного обучения по сути своей — «черный ящик», а то, как многие современные алгоритмы принимают решения, едва ли поддается логическому обоснованию.

Недавние исследования предлагают методы, позволяющие интерпретировать решения «скрытной машины», не ставя под угрозу их точность. К ним относятся местные и глобальные методы толкования выбора систем и их прогнозов, использование методов обучения, которые дают расшифрованные для человека результаты, визуализацию потока информации в нейронных сетях и даже объяснение обучения.

Мы должны включить эти методы в разработку моделей ИИ и рабочих процессов DevOps, чтобы предоставить разнообразные объяснения разработчикам, корпоративным инженерам, пользователям и экспертам в этой и других отраслях.

4. Безопасность. Человеческое доверие к новым технологиям, в первую очередь, основано на понимании того, как это работает, и оценке их безопасности и надежности. Мы управляем автомобилями с полной уверенностью, что тормоза сработают при нажатии педали. Мы делаем офтальмологическую операцию с использованием лазера, всецело доверяя системе, которая исключает человеческий фактор.

В обоих случаях доверие исходит из уверенности в том, что система не допустит ошибку благодаря обучению, исчерпывающим испытаниям, опыту, мерам безопасности и стандартам, передовым методам и изучению потребностей пользователей. Многие из этих принципов обеспечения безопасности применяются к проектированию систем ИИ. Нужно не только адаптировать к ИИ уже существующие стандарты, но и разработать новые.

Например, мы могли бы спроектировать ИИ так, чтобы в его работу мог вмешаться человек в случае столкновения системы с качественно иной работой в сложных условиях. И по аналогии с маркировкой фармацевтических препаратов и продуктов питания или таблицами безопасности в компьютерном оборудовании мы можем перенести такую методику работы в предоставлении ИИ определенного круга возможностей или ограничений полномочий и иных решений правомочности ИИ.

Компромиссы в развитии ИИ

Каждый раз, когда внедряется новая технология, она создает новые проблемы, проблемы реальных и потенциальных угроз безопасности. По мере развития и роста осознанного подхода к технологиям эти сложности становятся все более разрешимыми, постепенно специалисты находят ключи к их разгадке.

Например, когда появились первые лекарства, не было никаких проверок их безопасности, стандартов качества, защищенных от детей колпачков или защиты целостности упаковки. ИИ — новая отрасль, и ей предстоит пройти аналогичный путь совершенствования.

Последние годы оказались чрезвычайно успешными с точки зрения развития технических возможностей. В ходе гонки за идеальными алгоритмами системы ИИ становятся все более мощными. Однако усилия не могут и не должны быть направлены исключительно на создание красивой картинки искусственного интеллекта. Нужно инвестировать в возможности, которые сделают ИИ не просто умным, но и ответственным за свои решения.

Я считаю, что по мере совершенствования систем инженеры и дизайнеры технологий ИИ должны работать с пользователями, заинтересованными сторонами и экспертами из разных дисциплин, чтобы понимать их потребности, постоянно оценивать влияние и последствия алгоритмического принятия решений, делиться результатами, оценками работы и идеями, продуктивно решать проблемы открытым и гибким способом. Вместе мы сможем создать такие алгоритмы ИИ, которым люди будут доверять.

Источник

Реклама

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход /  Изменить )

Google+ photo

Для комментария используется ваша учётная запись Google+. Выход /  Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход /  Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход /  Изменить )

Connecting to %s