Как искусственный суперинтеллект может на самом деле уничтожить человечество

Рейтинг: 4.6 из 5
Автор
Вадим Соколов
Рейтинг автора
4.6

Я уверен, что машинный интеллект окончательно погубит нас. Его потенциал уничтожить человечество - это то, о чем я думал и писал большую часть 20 лет. Я принимаю за это много критики, но нельзя игнорировать перспективу того, что человеческая цивилизация будет уничтожена ее собственными средствами.

Есть одно удивительно частое возражение против идеи, что искусственный суперинтеллект может уничтожить наш вид, возражение, которое я считаю смешным. Дело не в том, что сам суперинтеллект невозможен. Дело не в том, что мы не сможем предотвратить или помешать мошеннической машине разрушить нас. Это наивное возражение скорее предполагает, что у очень умного компьютера просто не будет средств или мотивации, чтобы покончить с человечеством.

Потеря контроля и понимания

Представьте себе системы, будь то биологические или искусственные, с уровнем интеллекта, равным или намного превышающим человеческий интеллект. Радикально улучшенный человеческий мозг (или даже нечеловеческий мозг животных) может быть достигнут за счет конвергенции генной инженерии, нанотехнологий, информационных технологий и когнитивных наук, в то время как машинный интеллект превосходит человеческий, скорее всего, благодаря достижениям в компьютерных науках, когнитивных технологиях. наука и эмуляция всего мозга.

А теперь представьте, если что-то пойдет не так с одной из этих систем или они намеренно используются в качестве оружия. К сожалению, мы, вероятно, не сможем сдерживать эти системы, как только они появятся, и не сможем предсказать, как эти системы будут реагировать на наши запросы.

«Это то, что известно как проблема контроля» , - пояснила в электронном письме Сьюзан Шнайдер, директор Центра будущего разума и автор книги « Искусственный я: ИИ и будущее разума» . «Это просто проблема того, как управлять ИИ, который намного умнее нас».

Для аналогии Шнайдер указал на знаменитый сценарий со скрепками, в котором производитель скрепок, обладающий плохо запрограммированным искусственным интеллектом, намеревается максимально повысить эффективность производства скрепок. В свою очередь, он разрушает планету, превращая всю материю на Земле в скрепки - категорию риска, названную оксфордским философом Ником Бостромом «извращенной реализацией» в своей книге 2014 года « Суперинтеллект: пути, опасности, стратегии» . Или, проще говоря, есть старая история о волшебных джиннах, в которой исполнение трех желаний «никогда не идет хорошо», - сказал Шнайдер. Общее беспокойство здесь в том, что мы прикажем сверхразуму что-то сделать, и, поскольку мы не совсем правильно поняли детали, он будет грубо неверно истолковать наши желания, что приведет к тому, чего мы не планировали.

Например, мы могли бы запросить эффективные средства извлечения солнечной энергии, побудив сверхразум узурпировать ресурсы всей нашей планеты для создания одной массивной солнечной батареи. Просьба к сверхразуму «максимизировать человеческое счастье» может заставить его перепрограммировать центры удовольствия нашего мозга или загрузить человеческий мозг в суперкомпьютер, заставляя нас постоянно испытывать пятисекундный цикл счастья на всю вечность, как предполагает Бостром. Как только появится искусственный суперинтеллект, гибель может наступить каким-то странным и неожиданным образом.

Элиэзер Юдковски, теоретик искусственного интеллекта из Машинного института искусственного интеллекта, считает искусственный суперинтеллект процессами оптимизации или «системой, которая поражает малые цели в больших пространствах поиска, чтобы произвести согласованные эффекты реального мира», как он пишет в своем эссе « Искусственный интеллект как положительный и отрицательный фактор глобального риска ». Проблема в том, что эти процессы имеют тенденцию исследовать широкий спектр возможностей, многие из которых мы даже не могли себе представить. Как писал Юдковский:

Я приезжаю в далекий город, и местный друг вызвался отвезти меня в аэропорт. Я не знаю окрестностей. Когда мой друг подходит к перекрестку улиц, я не могу предсказать его повороты индивидуально или последовательно. Но я могу предсказать результат непредсказуемых действий моего друга: мы прибудем в аэропорт. Даже если бы дом моего друга находился в другом месте города, так что мой друг совершал совершенно иную последовательность поворотов, я бы с такой же уверенностью предсказал нашу цель. Разве это не странная ситуация с научной точки зрения? Я могу предсказать результат процесса, не будучи в состоянии предсказать какие-либо промежуточные этапы процесса.

Оторванная от человеческого контекста и управляемая своим целевым программированием, машина может нанести значительный сопутствующий ущерб при попытке перейти от А к Б. Мрачно, но ИИ может также использовать и злоупотреблять ранее существовавшим мощным ресурсом - людьми - при попытке для достижения своей цели, причем способами, которые мы не можем предсказать.

Делаем ИИ дружелюбным

ИИ, запрограммированный с заранее определенным набором моральных соображений, может избежать определенных ловушек, но, как указывает Юдковски, для нас будет практически невозможно предсказать все возможные пути, по которым может идти разум.

Возможное решение проблемы контроля - это наполнить искусственный суперинтеллект совместимыми с людьми моральными кодексами. Если бы мы могли это осуществить, могущественная машина воздерживалась бы от причинения вреда или от действий, нарушающих наши моральные и этические представления, согласно этому образу мышления. Проблема, как указала Шнайдер, в том, что для того, чтобы мы «программировали моральный кодекс, нам нужна хорошая моральная теория, но в области этики есть много разногласий по этому поводу», - сказала она.

Хорошая точка зрения. Человечество никогда не создавало общего морального кодекса, с которым мог бы согласиться каждый. И, как вам скажет любой, у кого есть даже элементарное представление о проблеме тележки, этика может стать очень сложной задачей в спешке. Эта идея - что мы можем сделать сверхразум безопасным или управляемым, обучая его человеческой морали - вероятно, не сработает.

Способы и средства

«Если бы мы могли предсказать, что будет делать суперинтеллект, мы бы сами были такими умными», - пояснил Роман Ямпольский, профессор компьютерных наук и инженерии в Университете Луисвилля. «По определению, суперинтеллект умнее любого человека, и поэтому он предложит какое-то неизвестное неизвестное решение для достижения» целей, которые мы перед ним ставим, будь то разработка нового лекарства от малярии, разработка стратегии на поле боя или управление местная энергосистема. Тем не менее, Ямпольский считает, что мы могли бы предсказать злонамеренные действия суперинтеллекта, посмотрев на примеры того, что умный человек может сделать, чтобы захватить мир или уничтожить человечество.

«Например, решение проблемы сворачивания белка, то есть использование аминокислотной последовательности для определения трехмерной формы белка,« может быть использовано для создания армии биологических нанороботов », - сказал он. «Конечно, можно использовать множество менее сексуальных методов. ИИ мог бы заниматься торговлей акциями, игрой в покер или писательством и использовать свою прибыль, чтобы платить людям за выполнение его приказов. Благодаря недавнему распространению криптовалют, это можно было делать тайно и в больших масштабах ».

По его словам, при наличии достаточных финансовых ресурсов было бы легко получить вычислительные ресурсы из облака и повлиять на реальный мир с помощью социальной инженерии или, как выразился Ямпольский, вербовки «армии рабочих-людей». Суперинтеллект мог неуклонно становиться все более могущественным и влиятельным за счет приобретения богатства, мощности ЦП, емкости хранилища и охвата.

Пугает то, что суперинтеллект может прийти к определенным суждениям о том, как действовать вне наших запросов, как объяснил Мануэль Альфонсека, ученый-компьютерщик из Автономного университета Мадрида в Испании.

Искусственный суперинтеллект может «прийти к выводу, что мир был бы лучше без людей, и стереть нас с лица земли», - сказал он, добавив, что некоторые люди ссылаются на эту мрачную возможность, чтобы объяснить нашу неспособность обнаружить внеземной разум; возможно, «все они были заменены сверхразумным ИИ, которые не заинтересованы в контактах с нами как с низшей формой жизни», - сказал Альфонсека.

Для искусственного суперинтеллекта, намеревающегося преднамеренно уничтожить человечество, использование наших биологических слабостей представляет собой простейший путь к успеху. Люди могут прожить около 30 дней без еды и от трех до четырех дней без воды, но без кислорода мы проживем всего несколько минут. Машина с достаточным интеллектом, вероятно, найдет способ уничтожить кислород в нашей атмосфере, что она могла бы сделать с помощью какого-то самовоспроизводящегося нанотехнологического роя. К сожалению, у футуристов есть термин для обозначения такой стратегии: глобальная экофагия или ужасный «сценарий серой слизи». В таком сценарии целые группы сознательно сконструированных молекулярных машин будут искать определенные ресурсы и превращать их во что-то еще, включая свои копии.Этим ресурсом не обязательно должен быть кислород - просто удаление ключевого ресурса, критически важного для выживания человека.

Научная фантастика

Все это звучит очень научно, но Альфонсека сказал, что спекулятивная фантастика может быть полезной для выявления потенциальных рисков, особенно со ссылкой на «Матрицу» . Шнайдер также верит в силу вымышленных повествований, указывая на антиутопический короткометражный фильм Slaughterbots , в котором автономные дроны с оружием вторгаются в класс. По словам Шнайдера, опасения по поводу опасного ИИ и появления автономных машин для убийства все больше связаны с «здесь и сейчас», в котором, например, технологии дронов могут опираться на существующее программное обеспечение для распознавания лиц, чтобы нацеливаться на людей. «Это серьезная проблема», - сказала Шнайдер, по ее мнению , делая просмотр Slaughterbots обязательным.

MIT машин исследователь обучение Тегмарк говорит развлечение как The Terminator , представляя туманно возможные сценарии « отвлекает от реальных рисков и возможностей , представленных МА» , как он писал в своем 2017 году книги жизни 3,0: Быть человек в эпохе искусственного интеллекта . Темарк представляет более тонкие и даже более коварные сценарии, в которых машинный интеллект захватывает мир с помощью хитрой социальной инженерии и уловок, а также постоянного сбора ценных ресурсов. В своей книге Тегмарк описывает «Прометея», гипотетический общий искусственный интеллект (AGI), который использует свой адаптивный ум и универсальность для «управления людьми различными способами», а те, кто сопротивляется, не могут «просто выключить Прометея».

Само по себе появление общего машинного интеллекта неизбежно станет монументальным и вероятным поворотным моментом в истории человечества. Общий искусственный интеллект «был бы достаточно способен рекурсивно разрабатывать все более совершенный ОИИ, который в конечном итоге ограничен только законами физики, которые, по-видимому, позволяют разуму выходить далеко за пределы человеческого уровня», - пишет Тегмарк. Другими словами, общий искусственный интеллект можно использовать для изобретения суперинтеллекта. Соответствующая эпоха, когда мы станем свидетелями «интеллектуального взрыва», может привести к некоторым серьезно нежелательным результатам.

«Если группе людей удастся контролировать взрыв интеллекта, они могут захватить мир в считанные годы», - пишет Темарк. «Если людям не удастся контролировать взрыв интеллекта, сам ИИ может захватить мир еще быстрее».

Навсегда свидетели

Другая ключевая уязвимость связана с тем, что люди все больше исключаются из технологического цикла. Известно, что на алгоритмы теперь приходится львиная доля объема биржевых торгов, и, возможно, что еще более печально, алгоритмы теперь способны побеждать пилотов F-16 в воздушных боях. Все чаще ИИ просят принимать важные решения без вмешательства человека.

Шнайдер обеспокоен тем, что «в вооруженных силах уже идет гонка вооружений ИИ» и что «растущая зависимость от ИИ сделает человеческое восприятие и когнитивные способности неспособными достаточно быстро реагировать на военные вызовы». «Нам потребуется ИИ, чтобы сделать это за нас, но непонятно, как мы можем продолжать держать людей в курсе», - сказала она. Вполне возможно, что ИИ в конечном итоге придется отвечать от нашего имени при противодействии военным атакам - прежде чем мы получим возможность синтезировать входящие данные, - пояснил Шенидер.

Люди склонны к ошибкам, особенно когда они находятся под давлением на поле боя, но просчеты или неверные суждения, сделанные ИИ, добавят дополнительный уровень риска. Вспоминается инцидент 1983 года, когда советская система раннего предупреждения чуть не привела к ядерной войне.

Писатель-фантаст Айзек Азимов предвидел это, поскольку роботы в его романах - несмотря на то, что их сдерживали Три закона робототехники - сталкивались со всевозможными проблемами, несмотря на все наши усилия. Подобные проблемы могут возникнуть, если мы попытаемся сделать что-то аналогичное, хотя, как указал Шнайдер, согласовать моральный кодекс, которым будут руководствоваться наши электронные братья, будет сложно.

Однако у нас нет выбора, кроме как попробовать. Пожать плечами в поражении - не вариант, учитывая, что ставка. Как утверждает Бостром, наша «мудрость должна предшествовать нашей технологии», отсюда его фраза: «философия с установленным сроком».

На карту поставлена ​​серия потенциальных глобальных катастроф, даже до появления искусственного суперинтеллекта. И мы, люди, явно не умеем справляться с глобальными катастрофами - это стало очевидным.

У SARS-CoV-2 и его вызывающих беспокойство вариантов очень мало интеллекта, но этот вирус работает пассивно, используя наши уязвимости, независимо от того, имеют ли эти уязвимости биологическую или социальную природу. Вирус, вызывающий COVID-19, может адаптироваться к нашим контрмерам, но только посредством процессов случайной мутации и отбора, которые неизменно связаны ограничениями биологии. Что еще более угрожающе, злонамеренный ИИ может разработать свой собственный вирус с «низким IQ» и постоянно настраивать его, чтобы создавать новые смертоносные варианты в ответ на наши контрмеры.

Ямпольский сказал это в первые дни пандемии:

К сожалению, у искусственного суперинтеллекта нет недостатка в способах покончить с человеческой цивилизацией в том виде, в каком мы ее знаем, не с помощью упрощенной грубой силы, а более эффективным способом, посредством адаптивного самоконструирования, повышенной ситуационной осведомленности и молниеносных вычислительных рефлексов. Тогда возможно ли создать ИИ, который будет безопасным, полезным и основанным на этике? Единственным вариантом может быть глобальный запрет на разработку почти сверхразумного ИИ, что маловероятно, но, вероятно, необходимо.

Новости спорта

Изначально сайт создавался для пользователей со всех стран мира. Международный домен ориентирован на самых разных пользователей. Страницы сайта переведены на 46 языков, среди которых есть и азербайджанский. Это выгодно выделяет платформу на фоне конкурентов, так как многие из них либо не работают на территории данной страны, либо не имеют местной локализации.

Больше новостей