Интересные факты

Как создают робота, который захочет изменить мир?

Компьютерный ученый Кристоф Солдж пытается ликвидировать необходимость в правилах, которые управляют поведением роботов. Его стратегия — дать им мишень: сделать нас более могущественными. Кристоф работает в Game Innovation Lab при Нью-Йоркском университете. Саша Маслов взяла интервью у Солджа для Quanta Magazine, из которого мы узнаем, что нам, возможно, вовсе не стоит пробовать удержать неудержимый поток технологической сингулярности.

Знаменитые три закона робототехники Айзека Азимова — ограничения поведения андроидов и автоматов, необходимые для обеспечения безопасности человечества — также были незавершенными. Эти законы сперва появились в рассказе Азимова в 1942 году, а затем в классических работах вроде «Я, робот» и звучат примерно этак:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтоб человеку был причинен вред.
  2. Робот должен подчиняться приказам, отдаваемым людьми, если таковые не противоречат Первому Закону.
  3. Робот должен отстаивать свое существование, если эта защита не противоречит Первому или Второму Закону.

Разумеется, в этих законах можно найти масса противоречий и лазеек (чем, собственно, пользовался и сам Азимов). В наш нынешний столетие продвинутого программного обеспечения с машинным обучением и автономной робототехникой, дефиниция и внедрение железной этики искусственного интеллекта стало актуальной проблемой для таких организаций, будто Институт исследований машинного интеллекта и OpenAI.

Кристоф Солдж предпринял иной подход. Вместо того чтоб «сверху-вниз» навязывать философские определения того, будто должны или не должны вести себя искусственные агенты, Солдж и его коллега Даниэль Полани исследуют линия «снизу-вверх», или «что робот должен мастерить в первую очередь», как написали в своей статье «Расширение прав будто замена трем законам робототехники». «Расширение прав», концепция, рожденная на стыке кибернетики и психологии, описывает внутреннюю мотивацию агента к одновременному сопротивлению и работе в условиях окружающей среды. «Как организм, он хочет выжить. Он хочет покинуть след в мире», объясняет Солдж. Пылесос Roomba, запрограммированный на розыск зарядной станции при разрядке батарей, — это рудиментарный образец «расширенных прав»: чтобы продолжать функционировать в мире, он должен получить заряд и продолжить собственное существование, то кушать выжить.

Расширение прав может прозвучать будто рецепт для получения того самого результата, которого боятся сторонники безопасного искусственного интеллекта вроде Ника Бострома: мощной автономной системы, обеспокоенной лишь удовлетворением собственных интересов и сходящей с ума в процессе этого. Однако Солдж, изучающий человеко-машинные социальные взаимодействия, задается вопросом: что будет, если агент с расширенными правами «также будет заниматься расширением прав другого? Нужно, чтоб робот не просто хотел оставаться в рабочем состоянии — нужно, чтоб он также хотел поддерживать своего человеческого партнера».

Похожие новости  Селфи как психологическая категория поведения «человека разумного»

Солдж и Полани поняли, что теория информации предлагает способ воплотить это взаимное расширение в математическую базу, которую возьмет на вооружение не-философствующий ненастоящий агент. «Одним из недостатков трех законов робототехники является то, что они основаны на языке, а стиль в высокой степени двусмысленный», говорит Солдж. «Мы пытаемся найти что-то, что на самом деле можно будет исполнить».

Отдельный технологи считают, что ИИ — это большая, даже катастрофическая угроза существованию людей. А вы?

Я воздержусь. То кушать я правда считаю, что в сегодняшнее время существует страх перед роботами и растущим влиянием ИИ. Однако, думаю, в краткосрочной перспективе мы, вероятно, будем больше озабочены возможной переменой рабочих мест, процесса принятия решений, утратой демократии, потерей конфиденциальности. Не знаю, как вероятно появление неудержимого ИИ в ближайшее пора. Но даже если ИИ будет контролировать систему здравоохранения и выдавать рецепты, нам стоит поразмыслить об этических вопросах, возникающих в процессе его работы.

Каким образом концепция расширения прав поможет нам управиться с этими проблемами?

Я думаю, что идея расширения прав заполняет нишу. Она не даст агенту позволить человеку помереть, но как только вы сможете удержаться на этом пороге, она будет поддерживать намерение основывать дополнительные возможности для выражения человека и влияния на мир. В одной из книг Азимова роботы попросту в конечном итоге поместят всех людей в безопасные контейнеры. Это было бы нежелательно. Если наша способность воздействовать на мир будет всегда улучшаться, я думаю, это будет гораздо более интересная для достижения мишень.

Вы проверяли свои идеи виртуальных агентов в видеоигровой среде. Что произошло?

Агент, мотивированный собственными расширенными правами, уклонится от снаряда и не упадет в яму, в общем избежит любую ситуацию, которая может повергнуть его к утрате мобильности, смерти или повреждению таким образом, чтоб уменьшить его операциональность. Он попросту будет держаться.

В связке с игроком-человеком, какой также наделен расширенными правами, мы увидели, что виртуальный робот будет поддерживать определенную дистанцию, чтоб не препятствовать движению человека. Он не заблокирует вас, не станет на проходе, чтоб вы не могли миновать. Он будет держаться максимально вблизи к вам, чтобы иметь возможность поддержать. Это приводит к поведению, при котором он может и хватать инициативу, и следовать за посторонний.

К примеру, мы создали сценарий, в котором у нас был лазерный барьер, опасный для человека, однако безопасный для робота. Если человек в этой игре приближается к лазерам, у робота появляется больше стимулов для блокировки лазера. Стимул усиливается, когда человек становится прямиком перед барьером, словно намереваясь его пересечь. И робот фактически блокирует лазер, становясь перед человеком.

Похожие новости  Как работает Hyperloop?

Проявляли ли эти агенты какое-либо непреднамеренное поведение, подобное тому, что вытекает из трех законов в книге Азимова?

Вначале поведение было хорошим. Так, виртуальный робот перехватывал противников, которые пытались вас убить. Пора от времени он мог прыгнуть под пулю, если это был один-единственный способ спасти вас. Однако что нас особенно удивило, с самого основы, что он также весьма боялся человека.

Причина этого связана с его «близорукой» моделью: по сути, он анализирует, будто последовательности определенных действий в два-три шага могут повлиять на мир, будто для вас, так и для него. Потому первым шагом мы запрограммировали то, что игрок действует случайным образом. Однако на практике это вылилось в то, что агент относился к человеку будто к своего рода психопату, какой мог в любой момент времени, так, выстрелить в агента. Поэтому агенту приходилось весьма и очень осторожно выбирать положения, при которых человек не мог его убить.

Нам нужно было это исправить, потому мы смоделировали так называемое гипотеза о доверии. По сути, партнер-агент действует, исходя из предположения, что человек будет выбирать лишь те действия, которые не станут ограничивать расширенные права самого агента — пожалуй, это более подходящая для компаньона модель.

Мы также заметили, что если в игре у вас было, скажем, 10 очков здоровья, партнер не особо переживал, если вы теряли восемь или девять этих очков — он мог даже выпалить в вас разочек, просто шутки ради. И тогда мы поняли, что кушать разрыв между миром, в котором мы живем, и моделью в компьютерной игре. Будто только мы смоделировали ограничения способности, вызванные потерей здоровья, проблема исчезла. Ее также можно было разрешить, создав не такую близорукую модель, которая могла бы просчитывать действия еще на пару шагов в будущее. Если бы агент мог заглянуть дальше в будущее, он увидел бы, что владеть больше очков здоровья может быть полезным для будущих событий.

Принимая во внимание, что смена количества очков здоровья никак на сказывается на моих расширенных правах, агент решает: «Стреляю я в него, не стреляю — какая разница?». И порой стреляет. Что, конечно, является проблемой. Я не хочу случайных выстрелов в игроков. Мы добавили исправление, чтоб виртуальный робот чуть больше беспокоился о вашем состоянии, чем о своем.

Будто вы делаете эти концепции точными?

Если рассматривать агентов будто системы управления, их можно разложить на информационные составляющие: в мире что-то происходят и этак или иначе тебя касается. Мы говорим об информации не будто о вещах, которые вы воспринимаете, а будто о воздействиях любого рода — это может быть вещество, что-то протекающее между миром и вами. Может быть температура или питательные вещества в вашем теле. Любая предмет, которая пересекает границу между миром и агентом, переносит в себе информацию. Точно этак же агент может воздействовать на внешний мир самыми разными способами, также выводя в него информацию.

Похожие новости  Вымирание динозавров — всего лишь случайность

Можно рассматривать этот поток будто пропускную способность канала, это концепция из теории информации. У вас могут быть широкие полномочия, расширенные права, если вы способны предпринимать различные действия, которые приводят к различным результатам. Если что-то пойдет не этак, вы лишитесь своих полномочий, потому что утрата способности соответствует количественному уменьшению пропускной способности канала между вами и окружающей средой. Это основная идея.

Сколько должен знать агент, чтоб его расширенные полномочия действовали в полной мере?

Расширенные права имеют преимущества в том, что их можно применять даже тогда, когда вы не обладаете полным знанием. Агент подлинно нуждается в модели того, будто его действия будут воздействовать на мир, но ему не нужно полное понимание мира и всех его тонкостей. В отличие от некоторых подходов, которые пытаются смоделировать все в мире, как это возможно, в нашем случае нужно лишь выяснить, будто ваши действия влияют на ваше же восприятие. Не нужно узнавать все обо всем; нужен лишь агент, какой исследует мир. Он что-то делает и пытается постигнуть, как его действия влияют на мир. Модель растет, а агент все лучше и лучше понимает, куда простираются границы его полномочий.

Вы проверяли его в виртуальной среде. Отчего не в реальном мире?

Главным препятствием масштабирования этой модели и тому, чтоб поместить ее в реального робота, является сложность расчета пропускной способности канала агента и человека в подобный богатой среде, как реальный мир, надолго вперед. Всем этим процессам еще лишь предстоит стать эффективными. Я оптимистично настроен, однако пока эта проблема остается чисто вычислительной. Потому мы проверяем работу системы в компьютерной игре, в упрощенной форме.

Похоже, расширение прав и возможностей, в идеале, сделает наши машины мощными служебными собаками.

Я даже знаю некоторых робототехников, которые сознательно моделируют поведение компаньона на основе собак. Думаю, если роботы будут смотреть к нам, как наши собаки, в этом будущем все мы сможем ужиться.

Hi-News.ru — Новости высоких технологий.

Добавить комментарий