Проблемы использования искусственного интеллекта

Каждый день бесчисленное множество заголовков предупреждают о многочисленных угрозах по всему миру, начиная от предупреждений о страшных последствиях и заканчивая предсказанием утопического будущего. Все это происходит благодаря искусственному интеллекту. «Искусственный интеллект трансформирует рабочее пространство», - пишет издательство Wall Street Journal, в то время как журнал Fortune рассказывает нам, что мы столкнулись с «революцией искусственного интеллекта», которая «изменит нашу жизнь». Но мы не понимаем, каким будет или каким должно быть взаимодействие человека с искусственным интеллектом? Тем не менее, складывается впечатление, что мы уже имеем понятие об искусственном интеллекте. Оно похоже на то, как мы думаем о животных. Как бывший дрессировщик животных, я знаю, что животные и их дрессировка помогут многому обучить нас. В частности, в вопросах взаимодействия с искусственным интеллектом в настоящем и будущем. Использование аналогии с животными может помочь обычным людям понять множество сложных аспектов искусственного интеллекта: как лучше обучать эти системы новым знаниям и, возможно наиболее важно, как мы можем правильно воспринимать их ограничения, даже когда открываем новые возможности искусственного интеллекта.

Рассмотрим ограничения

Как объясняет эксперт в области искусственного интеллекта Мэгги Боден: «Искусственный интеллект стремится сделать возможным такие вещи, которые не под силу нашего уму». Исследователи в области искусственного интеллекта работают над обучением компьютеров размышлять, чувствовать, планировать, волноваться и строить ассоциации. Искусственный интеллект может искать шаблоны в больших наборах данных, предсказывать вероятность появления того или иного события, строить маршруты, планировать встречи и даже играть в компьютерные игры.

Многие из этих способностей являются неудивительными. Конечно, робот может катиться по поверхности и ни с чем не столкнуться. Но так или иначе искусственный интеллект кажется более «магическим», когда компьютер начинает применять указанные выше навыки комплексно для выполнения какого-либо задания.

Возьмем, например, беспилотные автомобили. Происхождение беспилотных автомобилей датируется 1980 – ми годами, когда Defense Advanced Research Project Agency запустила свой проект с названием «Автономный наземный транспорт». Целью проекта было проведение исследований в области компьютерного зрения, восприятия, планирования и роботизированного контроля.

Спустя 30 лет после начала проекта, можно с уверенностью констатировать, что компьютеры могут управлять автомобилями. Способности автономных автомобилей относительно просты для понимания. Но мы изо всех сил стараемся понять и изучить их ограничения. После крушения автомобиля «Тесла» в 2015 году из-за ошибки функционирования автопилота, который не «увидел» большегрузный автомобиль, перестраивающийся на ее полосу, немногие признали, что автопилот «Теслы» имеет какие-то функциональные ограничения. Программное обеспечение автопилота было вычищено от небрежностей или неправильных блоков кода, однако остается вопрос, поняли ли владельцы автомобиля опасность его использования? Так называемая «интеллектуальность», которая обеспечивает «полную автономность управления», является на самом деле гигантским компьютером, который достаточно хорошо чувствует объекты и избегает их, распознает предметы в изображениях. Знание и понимание этой особенности заставило бы изменить представление владельцев о том, как много автомобиль действительно может сделать без человеческого вмешательства.

Что это?

Техники часто пытаются объяснить искусственный интеллект в терминах того, как он устроен. Возьмем, например, достижения, сделанные в глубоком обучении. Это метод, который использует многоуровневые сети для обучения компьютера тому, как выполнить задание. Сетям необходимо обработать огромный объем информации. Учитывая такой объем информации, сложность ассоциаций и алгоритмов в сетях, очень часто остается непонятным, как компьютеры понимают, что им необходимо делать.

Вместо того, чтобы думать об искусственном интеллекте как о суперчеловеке или пришельце, легче сравнить их с животными, которых человек приручил и научился эффективно дрессировать. Agrificial intelligence Например, если я должен использовать метод закрепления для тренировки собаки команде «сидеть», я должен был хвалить собаку и давать ей сладость, когда она выполняла команду. С течением времени, собака ассоциировала бы команду с дальнейшим получением сладости. Обучение собаки команде «сидеть» очень похоже на обучение искусственного интеллекта. Обучение систем искусственного интеллекта может быть построено аналогично: разработчики устанавливают систему, которую они хотят обучить, записывают в нее информацию, наблюдают за ее действиями и оценивают ее (подобно сладости) в тот момент, когда они видят необходимый результат. В сущности, мы можем поощрять искусственный интеллект как животных во время тренировки. Аналогия также работает и на глубоком уровне. Я не ожидаю от сидящей собаки понимания сложных вещей, таких как «любовь» или «хороший». Я ожидаю от нее обучение поведению. Также как мы можем обучить собаку сидеть, стоять, переворачиваться, мы можем заставить системы искусственного интеллекта управлять автомобилями на дорогах. Но было бы излишне ожидать от машины «решать этические проблемы», которые могут возникнуть во время дорожного движения.

Помогая исследователям…

Применяя аналогии дрессировки животных к вопросам искусственного интеллекта применимо не только применимо для объяснения широкому кругу лиц. Это также полезно для исследователей и инженеров, которые занимаются разработкой технологии. Если ученый, занимающийся искусственным интеллектом, пытается обучить систему новым знаниям, выстраивая процесс обучения наподобие дрессировки животного, то он сможет эффективно определить потенциальные проблемы или осложнения в процессе обучения.

Например, если я пытаюсь тренировать свою собаку команде «сидеть» и каждый раз, когда говорю «Сидеть», моя духовка производит определенный звук, то со временем собака станет ассоциировать необходимость сидеть не только с моей командой, но и со звуком моей духовки. Таким образом, звук духовки становится другим сигналом, говорящим собаке о необходимости сидеть. Воздействие этого сигнала называется «случайным закреплением». Рассматривая случайное закрепление или сигналы в системах искусственного интеллекта, которые работают неправильно, то мы не только поймем проблемы функционирования, но и определим эффективную методику переобучения.

Это требует от нас понимания сообщений, получаемых во время тренировки искусственного интеллекта. Прежде чем полноценно внедрить искусственный интеллект в нашу жизнь и доверить нашу жизнь и здоровье роботам, мы должны остановиться и задуматься о том, что создаем. Роботы будут очень хорошими исполнителями отдельных заданий или действий, но они не смогут понимать мир в целом, складывая отдельные знания об окружающих предметах. Итак, если вы задумались о покупке новой машины «Тесла», ответьте себе на вопрос: «Действительно ли Вы хотите доверить жизнь и здоровье себя и своих близких искусственному интеллекту?» Если нет, то держите руль крепче и не спите во время движения.

Назад

Не менее интересно