Интересные факты

Стивен Хокинг: мы прошли точку невозврата

Стивен Хокинг считает, что у человечества в скором времени не останется выбора, будто покинуть Землю и заняться поиском нового дома. С подобными заявлениями знаменитый физик-теоретик уже выступал и ранее. По его мнению, шанс на выживание у нас с вами появится лишь в том случае, если мы превратимся в межпланетный облик, в противном случае мы будем попросту обречены на вымирание. В последнем интервью изданию WIRED Хокинг подчеркнул, что мы уже перешли этак называемую «точку невозврата».

В интервью он еще один напомнил, что его мысли о необходимости поиска второго дома для людей связаны разом с двумя причинами: перенаселением нашей планеты и совершенно не иллюзорной, а вполне реальной угрозой развития искусственного интеллекта (ИИ). Машины, по его мнению, весьма скоро станут настолько умными, что в конечном итоге решат «заменить» человечество.

«Мы открываем натуральный ящик Пандоры. Боюсь, что ИИ сможет заменить всех людей», — прокомментировал Хокинг изданию WIRED.

Это определенно не первоначальный раз, когда Хокинг пугает нас такими предупреждениями. В интервью издательству «Таймс» в марте этого года он также предупреждал всех об апокалипсисе и необходимости создания «новой формы мирового правительства», которое смогло бы содержать эту технологию под контролем. Кроме того, физик-теоретик выражал беспокойство о том, что ИИ окажет существенное воздействие на объем свободных рабочих мест для среднего класса, и даже призвал к запрету разработки и использования искусственного интеллекта в военных целях.

Будто бы там ни было, его предупреждения практически целиком игнорируются технологическими компаниями, вовлеченными в создание и развитие ИИ. Однако уже сейчас отдельный отмечают, что интеллектуальные машины начинают исподволь отнимать рабочие места, заменяя живых людей, а в некоторых странах, включая США и Россию, преследуется мишень создания вооружения, управляемого искусственным интеллектом. Чего греха таить, все мы в свое пора смеялись над российским роботом Федором (он же FEDOR, или Final Experimental Demonstration Object Research), разработанным НПО «Андроидная техника» и Фондом перспективных исследований по заказу МЧС России. Однако на Западе люд к презентации этой машины отнеслись гораздо серьезнее, ведь российская разработка демонстрирует возможности, которых лишены даже роботы Boston Dynamics — одной из самых продвинутых робототехнических компаний в мире. Федора позиционируют будто робота-спасателя, а также будущего космонавта, какой должен будет отправиться в космос на новом космическом аппарате «Федерация» в 2021 году, однако на Западе отмечают его открыто боевой потенциал.

Похожие новости  Стартап Alcarelle будет производить заменитель алкоголя из Star Trek

В последние годы разработка ИИ стала весьма резонансной темой. Некоторые эксперты соглашаются с Хокингом и выдвигают аналогичные аргументы, взять хотя бы того же Илона Личина и Билла Гейтса. Оба видят в разработке искусственного интеллекта опасность для человечества. Линия экспертов с «противоположной стороны баррикад» говорят о том, что подобные страхи в большей степени основаны на надуманных сценариях захвата мира сверхразумным ИИ, а потому весьма вредны, так как имеют возможность негативно сказаться на восприятии общественностью истинной пользы от ИИ в будущем.

Хокинг, в свою очередность, непреклонен и уверен, что эти страхи имеют под собой вполне реальную основу.

«Если люд могут разрабатывать компьютерные вирусы, то кто-то определенно разработает ИИ, способный самостоятельно эволюционировать и реплицировать. Он сможет обратить себя в новую форму жизни, которая во всем будет превосходить людей», — прокомментировал Хокинг журналистам WIRED.

Тут Хокинг, скорее всего, говорит о развитии ИИ до человеческого уровня мышления или даже превосходящего этот степень мышления. Другими словами, он говорит о событии, которое предсказывают многие современные футурологи – технологической сингулярности. Касательно того, когда, по мнению Хокинга, это событие произойдет, физик-теоретик не предложил каких-либо конкретных дат. Можно лишь предположить, что выговор идет о промежутке в течение 100 лет, которые нам выделил Хокинг для выживания на Земле.

Другие, такие будто глава SoftBank Масаеси Сновидение и старший инженер Google Рэй Курцвейл, предполагают приход сингулярности еще ранее – в течение ближайших 30 лет.

Мы по-прежнему находимся весьма далеко от развития по-настоящему полноценного искусственного интеллекта. Касаемо сингулярности — это тоже покамест одно лишь гадание на кофейной гуще. По крайней мере с точки зрения того, что же эта сингулярность нам принесет. Станет ли это событие началом заката для человечества или, визави, ознаменует начало новый эры, в которой люд и машины будут мирно уживаться? В любом случае потенциал ИИ может использован будто для хороших, так плохих целей, потому неплохо было бы блюсти необходимый уровень предосторожности.

Hi-News.ru — Новости высоких технологий.

Добавить комментарий