banner

Блог

Aug 27, 2023

Темная тайна в основе ИИ

В прошлом году на тихие дороги округа Монмут, штат Нью-Джерси, вышел странный беспилотный автомобиль. Экспериментальный автомобиль, разработанный исследователями производителя чипов Nvidia, не отличался от других автономных автомобилей, но он не был похож ни на что, продемонстрированное Google, Tesla или General Motors, и демонстрировал растущую мощь искусственного интеллекта. Автомобиль не выполнил ни одной инструкции инженера или программиста. Вместо этого он полностью полагался на алгоритм, который научился водить машину, наблюдая, как это делает человек.

Заставить машину ездить таким образом было впечатляющим подвигом. Но это также немного тревожит, поскольку не совсем понятно, как машина принимает решения. Информация от датчиков автомобиля поступает прямо в огромную сеть искусственных нейронов, которые обрабатывают данные, а затем передают команды, необходимые для управления рулевым колесом, тормозами и другими системами. Результат, кажется, соответствует реакции, которую вы ожидаете от водителя-человека. Но что, если однажды он сделает что-то неожиданное — врежется в дерево или сядет на зеленый свет? При нынешнем положении вещей может быть трудно понять, почему. Система настолько сложна, что даже инженерам, которые ее проектировали, сложно определить причину какого-либо отдельного действия. И вы не можете задавать этот вопрос: не существует очевидного способа спроектировать такую ​​систему, чтобы она всегда могла объяснить, почему она делает то, что делает.

Таинственный разум этого автомобиля указывает на надвигающуюся проблему с искусственным интеллектом. Базовая технология искусственного интеллекта автомобиля, известная как глубокое обучение, в последние годы доказала свою эффективность в решении проблем и широко используется для таких задач, как создание титров к изображениям, распознавание голоса и языковой перевод. Теперь есть надежда, что те же методы смогут диагностировать смертельные заболевания, принимать торговые решения на миллионы долларов и делать бесчисленное множество других вещей, чтобы преобразовать целые отрасли.

Но этого не произойдет – или не должно произойти – если мы не найдем способы сделать такие методы, как глубокое обучение, более понятными для их создателей и подотчетными их пользователям. В противном случае будет трудно предсказать, когда могут произойти сбои, а они неизбежны. Это одна из причин, по которой машина Nvidia все еще остается экспериментальной.

Уже сейчас используются математические модели, чтобы определить, кто дает условно-досрочное освобождение, кому одобрен кредит и кого нанимают на работу. Если бы вы могли получить доступ к этим математическим моделям, можно было бы понять их рассуждения. Но банки, военные, работодатели и другие в настоящее время обращают свое внимание на более сложные подходы машинного обучения, которые могут сделать автоматизированное принятие решений совершенно непостижимым. Глубокое обучение, наиболее распространенный из этих подходов, представляет собой принципиально иной способ программирования компьютеров. «Эта проблема уже актуальна, и она станет гораздо более актуальной в будущем», — говорит Томми Яаккола, профессор Массачусетского технологического института, который занимается применением машинного обучения. «Будь то инвестиционное решение, медицинское решение или, может быть, военное решение, вы не хотите просто полагаться на метод «черного ящика».

Уже существует аргумент, что возможность опросить систему ИИ о том, как она пришла к своим выводам, является фундаментальным юридическим правом. Начиная с лета 2018 года Европейский Союз может потребовать от компаний возможности давать пользователям объяснение решений, принимаемых автоматизированными системами. Это может оказаться невозможным даже для систем, которые на первый взгляд кажутся относительно простыми, таких как приложения и веб-сайты, которые используют глубокое обучение для показа рекламы или рекомендации песен. Компьютеры, на которых работают эти службы, запрограммировали себя, и сделали это способами, которые мы не можем понять. Даже инженеры, создающие эти приложения, не могут полностью объяснить их поведение.

Это поднимает ошеломляющие вопросы. По мере развития технологий мы вскоре можем пересечь некоторый порог, за которым для использования ИИ потребуется совершить решительный шаг веры. Конечно, мы, люди, тоже не всегда можем по-настоящему объяснить свои мыслительные процессы, но мы находим способы интуитивно доверять людям и оценивать их. Будет ли это возможно с машинами, которые думают и принимают решения иначе, чем человек? Мы никогда раньше не создавали машины, которые работают так, как не понимают их создатели. Насколько хорошо мы можем рассчитывать на общение и взаимодействие с интеллектуальными машинами, которые могут быть непредсказуемыми и непостижимыми? Эти вопросы привели меня в путешествие к новейшим исследованиям алгоритмов искусственного интеллекта, от Google до Apple и во многих других местах, включая встречу с одним из величайших философов нашего времени.

ДЕЛИТЬСЯ