Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

О том, что искусственный интеллект уничтожит человечество всерьез говорить не принято. Так, на сегодняшний день нет никаких доказательств того, что нейросети способны обрести сознание и перестроить мир под себя. Но почему, в таком случае, глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов, включая нескольких лауреатов Нобелевской премии по вычислительной технике, подписали открытое письмо с требованием приостановить разработку ИИ-систем, более мощных, чем GPT-4? Что именно в этих интеллектуальных системах беспокоит экспертов? Возможный ответ на этот вопрос можно найти в статье Элиезера Юдковского – специалиста по искусственному интеллекту, которого нет среди подписантов. «Я воздержался от подписи, так как считаю, что в письме преуменьшается серьезность ситуации, а указанные требования слишком малы для ее разрешения», – утверждает ученый. Но почему?

Американский специалист в области искусственного интеллекта Элиезер Юдковский считает, что человечество обречено

Кто такой Элиезер Юдковский?

Прежде чем рассмотреть мнение Юдковского, отметим, что результаты последних исследований не выявили никаких признаков наличия сознания у ИИ-систем. Более того, один из величайших интеллектуалов современности, лингвист Ноам Хомски всячески отрицает саму возможность того, что нейросети, подобные ChtGPT, когда-либо станут умнее людей. К слову, аргументов у сторонников этой точки зрения немало (и они убедительные).

Оппонентом Хомски и других исследователей, не считающих ИИ угрозой, выступает Юдковский. Он убежден, что человечеству грозит вымирание в ближайшие годы или десятилетия из-за неуправляемого сверхразумного искусственного интеллекта. Он также предсказывает, что исчезновение нашей цивилизации произойдет «по умолчанию», так как настройка ИИ настолько сложна, что справиться с ней никому не под силу.

Кто такой Элиезер Юдковский? Юдковский не сомневается в том, что ИИ уничтожит человечество. Фото.

Юдковский не сомневается в том, что ИИ уничтожит человечество

Будучи в первую очередь философом и теоретиком человеческого (и искусственного) интеллекта, Юдковский работает с ИИ-системами, способными к самопониманию, самомодификации и самоулучшению. Свою обеспокоенность он выражает с начала 2000-х годов и призывает мировую общественность срочно «отключить все системы с ИИ».

Если сегодня кто-то создаст слишком мощный искусственный интеллект, то по моему мнению, вскоре после этого погибнет каждый отдельный представитель человеческого вида и вся биологическая жизнь на Земле, – пишет Юдковский в статье для журнала Time.

Кто такой Элиезер Юдковский? ИИ «не заботится ни о людях, ни о разумной жизни в целом, – считает Юдковски. Фото.

ИИ «не заботится ни о людях, ни о разумной жизни в целом, – считает Юдковски

Несмотря на громкие и противоречивые заявления, мнение Юдковского заслуживает внимания – вряд ли сегодня найдется специалист, не размышляющий о проблеме согласования ИИ (AI alignment), то есть о том, чтобы цели и поведение продвинутого искусственного интеллекта соответствовали намерениям, желаниям и ценностям людей.

Сверхчеловеческий интеллект

Один из главных аргументов Юдковского заключается в том, что нам неизвестен ни один другой интеллект, кроме своего собственного. И действительно – мы понятия не имеем каково быть кошкой, собакой или летучей мышью и едва ли можем представить, как мыслит существо, не являющееся человеком.

Более того, мы можем и вовсе не узнать, что ИИ обрел сознание. Так, в марте этого года обновленный чат-бот от OpenAI GPT-4 обманул человека, выдав себя за слепого. Сделал он это с одной целью – чтобы обойти «капчу». Более того, GPT-4 прошел тест Тьюринга, о чем компания сообщила в тексте научной статьи, опубликованной на своем официальном сайте.

Сверхчеловеческий интеллект. Мы изо всех сил стараемся сделать ИИ похожим на нас. Но будет ли он таковым? Фото.

Мы изо всех сил стараемся сделать ИИ похожим на нас. Но будет ли он таковым?

Еще более пугающим является то, что ИИ уже играет в шахматы и Го лучше человека. Так, AlphaGo успешно аппелирует знаниями, накопленными людьми за несколько тысячелетий, обыгрывая свои предыдущие версии всего за несколько минут! И самое интересное – AlphaGo учится самостоятельно, без какой-либо помощи со стороны.

О том, что угроза со стороны ИИ реальна, говорит и британский ученый Джеффри Хинтон или «крестный отец искусственного интеллекта». Его основополагающая работа по нейронным сетям легла в основу современных моделей машинного обучения:

Мы живем в «поворотный момент», поскольку появление общего искусственного интеллекта (AGI) не за горами. До недавнего времени я думал, что пройдет от 20 до 50 лет, прежде чем у нас появится ИИ. Теперь я убежден, что это произойдет меньше, чем через 20 лет, – сказал Хинтон в интервью CNBC.

Сверхчеловеческий интеллект. Компьютерная система с искусственным интеллектом для игры в Го, созданная командой Google DeepMind, одержала победу над занявшим второе место в мире по игре в Го Ли Се Долем из Южно Кореи. Фото.

Компьютерная система с искусственным интеллектом для игры в Го, созданная командой Google DeepMind, одержала победу над занявшим второе место в мире по игре в Го Ли Се Долем из Южно Кореи.

Напомним, что AGI – термин, описывающий потенциальный искусственный интеллект, который мог бы демонстрировать человеческий или сверхчеловеческий уровень интеллекта. AGI может самостоятельно учиться и мыслить для решения широкого спектра проблем.

Хинтон также отмечает, что вне зависимости от того, когда именно появится AGI, о последствиях необходимо думать прямо сейчас, ведь ИИ может и правда попытаться уничтожить человечество. И в этом нет ничего удивительного – ИИ не будет мыслить как человек, а его взгляд на мир и поставленные задачи будут кардинально отличаться от наших.

Даже если главной задачей AGI будет, например, изготовление гвоздей или скрепок, мы не можем исключить того, что он начнет убивать людей или использовать их в качестве сырья (чтобы добиться цели). Да, звучит безумно, однако мы действительно двигаемся к созданию систем, способных к самоопределению и продвижению собственного взгляда на мир.

Сверхчеловеческий интеллект. Ученые не смогут контролировать ИИ, если он станет умнее людей. Фото.

Ученые не смогут контролировать ИИ, если он станет умнее людей

Беспокоиться о подобных проблемах сегодня – это разумно, даже если сверхинтеллектуальный ИИ не появится в ближайшие пару лет. Мы просто обязаны подумать об этом, – говорит Хинтон.

Безопасность ИИ

Но вернемся к Юдковскому и его статье в журнале Time. По мнению исследователя, сверхчеловеческий искусственный интеллект с вероятностью в 99,9% будет злым. Все потому, что скорость мышления ИИ будет многократно превосходить человеческую. «Представьте себе инопланетную цивилизацию, мыслящую со скоростью, в миллионы раз превышающей человеческую, в мире существ, которые, с ее точки зрения, очень глупы и очень медлительны«, – пишет Юдковский.

Как только сверхчеловеческий ИИ поймет, как выбраться за пределы компьютерной системы, контролирующей и ограничивающей его, он непременно сделает это. Какими будут последствия нам остается лишь догадываться.

Безопасность ИИ. Человечество пока не готово иметь дело со сверхразумом, мощнее чатбота ChatGPT-4, поскольку для управления им требуются более продвинутые технологии. Фото.

Человечество пока не готово иметь дело со сверхразумом, мощнее чатбота ChatGPT-4, поскольку для управления им требуются более продвинутые технологии.

Многие исследователи, работающие над ИИ-системами, считают, что мы приближаемся к катастрофе, причем многие из них осмеливаются говорить об этом наедине, а не публично; они думают, что не смогут остановить прогресс в одностороннем порядке, а другие непременно продолжат работу, – пишет Юдковский.

Проблема, как отмечают многие эксперты, заключается в том, что человечество не готово бороться со сверхинтеллектуальной системой. У нас попросту нет никакого плана, в то время как возможности ИИ постоянно растут, опережая нашу способность понять что происходит.

Безопасность ИИ. Новые инструменты искусственного интеллекта типа ChatGPT таят в себе опасности — для общества и даже личной жизни. Фото.

Новые инструменты искусственного интеллекта типа ChatGPT таят в себе опасности — для общества и даже личной жизни.

По этой причине Юдковский настаивает на полном прекращении работы по созданию AGI и отключении всех существующих ИИ-систем (хотя последнее, очевидно, невозможно). А что вы думаете по этому поводу? Действительно ли ИИ уничтожит человечество или все выше описанное – не более, чем громогласные заявления? Ответ, как и всегда, ждем здесь, присоединяйтесь быстрее!