Стивен Хокинг: мы прошли точку невозврата

Стивен Хокинг считает, что человечеству скоро не будет выбора, кроме как покинуть Землю и искать новый дом. С такими заявлениями известный физик-теоретик уже говорил ранее. По его мнению, шанс выживания с нами проявится только в том случае, если мы станем межпланетными, иначе мы просто обречены на вымирание. В недавнем интервью WIRED Хокинг подчеркнул, что мы уже прошли так называемую «точку невозврата».

В интервью он еще раз напомнил, что его мысли о необходимости поиска второго дома для людей связаны сразу с двумя причинами: перенаселение нашей планеты и не совсем иллюзорная, но вполне реальная угроза развития искусственных интеллект (AI). Машины, по его мнению, очень скоро становятся настолько умными, что в конечном итоге они решают «заменить» человечество.

«Мы открываем настоящий ящик Пандоры. Я боюсь, что ИИ сможет заменить всех людей», - прокомментировал Хокинг ВИРД.

Это определенно не в первый раз, когда Хокинг пугает нас такими предупреждениями. В интервью The Times в марте этого года он также предупредил всех об апокалипсисе и необходимости создания «новой формы мирового правительства», которая могла бы держать эту технологию под контролем. Кроме того, теоретический физик выразил озабоченность в связи с тем, что ИИ окажет значительное влияние на количество свободных рабочих мест для среднего класса и даже призвал к запрету на разработку и использование искусственного интеллекта для военных целей.

В любом случае его предупреждения почти полностью игнорируются технологическими компаниями, участвующими в создании и развитии ИИ. Однако даже сейчас некоторые люди отмечают, что интеллектуальные машины постепенно начинают работать, заменяя живых людей, а в некоторых странах, в том числе в Соединенных Штатах и ​​России, цель заключается в создании оружия, управляемого искусственным интеллектом. Нехорошо признаться, мы все когда-то смеялись над российским роботом Федором (также FEDOR или Final Experimental Demonstration Object Research), разработанным НПО «Технологии Android» и Фондом перспективных исследований от имени Министерства по чрезвычайным ситуациям России , Однако на Западе люди были гораздо более серьезны в представлении этого автомобиля, потому что российское развитие демонстрирует возможности, которыми не хватает даже роботов Boston Dynamics, одной из самых современных роботизированных компаний в мире. Федор позиционируется как спасательный робот, а также будущий космонавт, которому в 2021 году придется ехать в космос на новом космическом аппарате Федерации, но на Западе его видимый боевой потенциал отмечен.

В последние годы развитие ИИ стало очень резонансной темой. Некоторые эксперты согласны с Хокином и выдвигают аналогичные аргументы, берут по крайней мере ту же Илону Маску и Билла Гейтса. Оба рассматривают развитие искусственного интеллекта как опасность для человечества. Ряд экспертов из «противоположной стороны баррикад» говорят, что такие опасения в большей степени основаны на надуманных сценариях захвата мира сверхинтеллектуальными ИИ и, следовательно, очень вредны, поскольку они имеют возможность негативно повлиять на общественное восприятие истинных преимуществ ИИ в будущем.

Хокинг, в свою очередь, непреклонен и уверен, что эти страхи имеют очень реальную основу.

«Если люди могут разрабатывать компьютерные вирусы, тогда кто-то определенно разработает ИИ, который может развиваться и воспроизводиться сам по себе. Он сможет превратиться в новую форму жизни, которая во всем будет превосходить людей», - сказал Уокинг журналистам.

Здесь Хокинг, скорее всего, говорит о развитии ИИ на человеческом уровне мышления или даже превосходит этот уровень мышления. Другими словами, он говорит о событии, которое прогнозируют многие современные футурологи - технологическая сингулярность. Касательно того, когда, по мнению Хокинга, это событие произойдет, физик-теоретик не предложил конкретных дат. Можно только предположить, что это интервал в 100 лет, который Хокинг выделил нам для выживания на Земле.

Другие, такие как глава SoftBank Masayoshi Son и старший инженер Google Ray Kurzweil, предполагают появление сингулярности еще раньше - в течение следующих 30 лет.

Мы все еще очень далеки от развития действительно полноценного искусственного интеллекта. Что касается сингулярности - это также только одно догадка на кофейной гуще. По крайней мере, с точки зрения того, что эта особенность принесет нам. Неужели это событие станет началом упадка для человечества или, напротив, ознаменует начало новой эры, в которой люди и машины будут сосуществовать мирно? В любом случае потенциал ИИ может использоваться как для хороших, так и для плохих целей, поэтому было бы неплохо соблюдать необходимый уровень предосторожности.

Вам нужна помощь квалифицированных специалистов.
Мы готовы помочь вам в реализации ваших идей. Вы можете рассчитывать на максимальный результат от вашего бюджета.

Оставить сообщение на странице

Перед тем как нажать кнопку "Добавить комментарий". Докажите что вы не "Робот", а действительно реальный человек! Нажмите на кнопку "Я не робот".