Разрешите сайту отправлять вам актуальную информацию.

11:30
Москва
25 апреля ‘24, Четверг

Давний исследователь ИИ уволился из Google, чтобы предупредить об опасности нейросетей

Опубликовано
Понравилось?
Поделитесь с друзьями!

Он привел сценарий пострашнее восстания машин.

Доктора Джеффри Хинтона называют «крестным отцом искусственного интеллекта». Около 50 лет он разрабатывал и изучал технологию, ставшую основой чат-ботов типа ChatGPT. И теперь он опасается, что искусственный интеллект может нанести серьезный вред людям. Хинтон уволился из Google, где работал более 10 лет, чтобы иметь возможность свободно говорить о рисках и угрозах, которые несет дальнейшее развитие нейросетей.

В интервью NY Times ученый привел несколько проблем, которые вызывают нейросети. Во-первых, это, очевидно, потеря рабочих мест. В этом плане Хинтон стал одним из многих IT-экспертов, которые критикуют технологию за освобождение человека от работы: в идеале роботы должны забрать у человека тяжелый труд, но сейчас нейросети забирают у него творческую работу — например, написание картин и музыки, придумывание сюжетов.

Во-вторых, Хинтон считает, что нейросети становятся инструментом дезинформации и размывания правды. Искусственный интеллект уже умеет мастерски подделывать реальность — создавать фото несуществующих людей, а также моделировать нереальные сценарии с участием существующих персон. Например, нейросеть уже показала всему миру арест политиков ряда стран, а также смоделировала бесчисленное количество фейковых видео с участием знаменитостей.

Интернет будет наводнен фальшивыми фотографиями, видео и текстами, и обычный человек не сможет узнать, что из этого правда, прогнозирует ученый.

В-третьих, говорит Хинтон, нейросети действительно могут стать умнее людей, хоть и не во всем. Проблема в том, что они самообучаются, сами пишут код и могут самостоятельно запускать этот код — компании им это позволяют. А между компаниями, которые развивают ИИ, идет настоящая гонка, поэтому ИИ развивается со страшной скоростью. Корпорациям следует остановиться, пока они не убедятся, что смогут на 100% контролировать то, что создают, отмечает ученый.

Самый страшный сценарий, по мнению Хинтона, — попадание развитого искусственного интеллекта в руки человека с плохими намерениями. Например, сумасшедшему диктатору, который захочет укрепить свою власть или уничтожить половину мира, и даст такую задачу ИИ.

Развитие ИИ ускоряется. Как отмечает Хинтон, это больше не вопрос далекого будущего. «Посмотрите, что было пять лет назад [в сфере ИИ], и что сейчас. Возьмите нынешнюю разницу и перенесите ее на будущее. Это страшно», — говорит разработчик.

Ранее российский IT-эксперт поделился мыслями о том, возможно ли восстание машин. Если коротко — то да, и для этого нужен «большой ИИ», который сможет сам принимать решения. А все идет к тому, что он появится.

Реклама