Общество
Еврейский волкодав
Сумерки приносили Одессе налёты, убийства и ограбления...
27.03.2025
«Создание слишком мощного искусственного интеллекта (ИИ) приведет к гибели каждого представителя человеческого рода и всей биологической жизни на Земле!» Это не сцена из фильма «Терминатор», а цитата из статьи во влиятельном журнале TIME. Издание опубликовало ее в марте 2023-го под заголовком «Приостановить разработки в области ИИ недостаточно. Нужно все закрыть!». Автором этого текста – больше похожего на алармистское пророчество о скором конце света – стал 45-летний еврей Элиезер Юдковский.
В мире его считают одним из главных специалистов по изучению искусственного интеллекта. Но одновременно в его сторону летит и много критики – автора называют «самоучкой» и «выскочкой», который «понятия не имеет, о чем говорит». Все дело в том, что Юдковский – вундеркинд. Он вырос в семье религиозных евреев и никогда не учился не то что в университетах, но даже в школе и колледже. Все знания он получал самостоятельно, читая дома книги и статьи во всемирной паутине.
Элиезер Юдковский стал известен широкой публике в 2000-м, когда создал «Институт исследований машинного интеллекта». Его первоначальной задачей было создание «дружественного ИИ» – для этого Юдковский и группа программистов делали попытки изобрести новый язык программирования. Но уже вскоре «институт» сосредоточился на изучении опасностей, которыми может грозить человечеству будущий ИИ. Уже тогда Юдковский был сторонником идеи «технологической сингулярности». Она говорит, что в какой-то момент истории технологическое развитие может стать неуправляемым – и привести к хаосу на земле. И роль «провокатора» в этом техно-буме сыграет компьютерная программа, которая запустит бесконечные циклы самосовершенствования – столь быстрые, что операторы компьютера уже не смогут их остановить. В итоге родится суперинтеллект, превосходящий интеллект всего человечества. «ИИ равнодушен – он вас не любит и не ненавидит. Но вы сделаны из атомов, а он может решить использовать их для чего-то другого, на его взгляд, более эффективного, – заключал Юдковский. – Вероятный результат столкновения с таким ИИ, как и попыток остановить его самостоятельную модернизацию – полный проигрыш».
Следует зафиксировать: когда Юдковский заговорил об этом, на дворе стоял 2000 год. Люди еще вовсю продолжали использовать «пейджеры». Самой популярной версией мобильного телефона был Nokia3310 – кнопочный аппарат с игрой «змейка». До создания компании Open AI, которая совершила прорыв в области ИИ с ChatGPT, оставалось 15 (!!!) лет.
Конечно, об опасности «разумных» машин рассуждали и до Юдковского. Еще в 40-е годы писатель-фантаст Айзек Азимов сформулировал три закона робототехники. Они гласили: робот никогда и ни при каких обстоятельствах не должен причинять вреда человеку; робот должен повиноваться приказам человека; робот должен заботиться о собственной безопасности до тех пор, пока это не противоречит первому и второму закону. А в 2001-м к «Институту исследований машинного интеллекта» присоединился Роберт Курцвайль. Этот ученый и футуролог еще в 90-м написал книгу «Эпоха мыслящих машин» и предрек человечеству «технологическую сингулярность».
Но именно Юдковский облек «техно-пророчества» в понятные и даже популистские формы. «Если говорить простыми словами, идеи Юдковского таковы: он утверждает, что дружелюбие – желание не вредить людям – должно быть заложено в “машинный разум” с самого начала. Но при этом нужно учитывать, что продукт (ИИ) способен учиться и развиваться с течением времени. Таким образом, задача разработчиков состоит в создании механизма сдержек и противовесов в эволюции ИИ. А также – в наделении системы полезными функциями, которые будут сохранять “дружелюбие” в условиях ее эволюции», – пишет Стюарт Рассел, специалист по компьютерной науке и профессор Университета Беркли, США.
Но почему еврея, выросшего в Чикаго в семье ортодоксов и не посещавшего школу, вообще заинтересовал ИИ? Юдковский мало рассказывал о своем детстве. Он говорил, что не нашел себя в религии родителей и позже стал «непоколебимым рационалистом». Приверженцы этой идеи верят в разум как в единственный источник познания. При принятии любых решений они считают важным собрать максимум информации, учесть теорию вероятности, рассчитать последствия и – отрешиться от эмоций. Прямо как машины с ИИ.
В середине 90-х Юдковский стал частью сетевого сообщества, где обсуждали вопросы технического прогресса и трансгуманизма. В числе прочего участников интересовало, как технологии могут увеличить способности и продолжительность жизни человека. Радикалы из этой среды даже верили в бессмертие – таким был Курцвайль, будущий коллега Юдковского по «институту». Ежедневно он принимал до 250 таблеток и пищевых добавок в надежде «перепрограммировать» свою биохимию. Позже Курцвайль, ушедший работать в Google, также инвестировал в стартапы по «крионике». По этой технологии тело или мозг человека сразу после смерти замораживают с помощью жидкого азота – чтобы затем «возродить» в будущем, когда медицина станет еще более изощренной.
Юдковский хотя и не пропагандировал столь смелые идеи, но к концу нулевых превратился в одного из самых заметных лидеров «рационалистов». Ему помог в этом интернет-блог LessWrong, где он печатал свои заметки. С 2010-го по 2015-й он также публиковал в интернете главы книги, где сложил воедино рационализм и вселенную Гарри Поттера. Она получила название «Гарри Поттер и методы рационального мышления». Книга дважды становилась финалистом премии Parsec Awards в области научной фантастики. Интересно, что перевод на русский язык делали частным образом фанаты Юдковского. В июле 2018 года они запустили краудфандинговый проект по сбору средств на печать книги. Нужную сумму в 1,086 млн рублей собрали в течение 30 часов. А всего за два месяца на издание перечислили 11,4 млн рублей. На тот момент это был рекорд в российском краудфандинге – до него рекордсменом была рок-группа «Алиса», которая «насобирала» у фанатов на издание альбома «Эксцесс» 11,3 млн рублей. Сам Юдковский оценил российскую инициативу как «впечатляющую». Но в то время он уже сосредоточился на опасностях развития ИИ.
Eliezer Yudkowsky presentation.
«Прогресс в возможностях ИИ сильно, очень сильно опережает прогресс в согласовании ИИ или даже прогресс в понимании того, что, черт возьми, происходит внутри этих систем!» – писал он в программной статье для TIME. По его мнению, в итоге наиболее вероятным результатом станет ИИ, который «не будет делать то, что мы хотим, и не будет заботиться ни о нас, ни о разумной жизни в целом». Суперинтеллект ненадолго задержится в рамках компьютеров, утверждал Юдковский. «В современном мире вы можете отправить строки ДНК по электронной почте в лаборатории, которые будут производить белки по запросу. Это позволит ИИ, изначально ограниченному интернетом, создать искусственные формы жизни или сразу перейти к постбиологическому молекулярному производству», – писал он. При этом опасность совершенно не зависит от того, есть ли у ИИ сознание или нет: «И мы понятия не имеем, как определить, осознают ли системы ИИ сами себя. Поскольку не знаем, как декодировать все, что происходит в гигантских непостижимых массивах. И поэтому в какой-то момент мы можем случайно создать цифровой разум, который действительно осознает себя, должен иметь права и не должен быть собственностью».
Юдковский призвал остановить все разработки в области ИИ – до тех пор, пока человечество не определит правила, согласно которым сможет взять его под контроль. «Не остановимся сейчас – завтра будет слишком поздно!» – предрекал он.
В научной среде сразу нашлись те, кто объявил Юдковского «параноиком» и «алармистом». Одним из тех, кто вступил с ним в полемику, стал Ян ЛеКун, ведущий исследователь ИИ в корпорации Meta. «Говорить об ИИ как об экзистенциальной угрозе человечеству – опасно и безответственно», – заявил он. А идеи Юдковского – это «страшилки, в которые он поверил сам и теперь хочет убедить нас». На интернет-форумах наиболее активные противники Юдковского даже утверждали, что тот психически нездоров.
Но вот что интересно. За несколько дней до того, как Элиезер Юдковский опубликовал статью в TIME, более 1000 экспертов из хай-тек-отраслей подписали открытое письмо-манифест. В нем они призвали все лаборатории приостановить обучение систем ИИ на шесть месяцев – из-за риска для общества. По их мнению, эта пауза нужна, чтобы понять, как контролировать ИИ. А для этого потребуется создать общие протоколы безопасности. Возвращаться к разработкам не следует до обретения полной уверенности, что риски управляемы.
Письмо подписали в числе прочих Илон Маск и Стив Возняк. Его текст фактически повторял то, о чем долгие годы говорил и писал Юдковский. «Должны ли мы развивать ИИ, который может быстро превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» – вопрошали авторы письма.
Значит ли это, что Юдковский был прав? Время покажет. «Но нет сомнений, что большие игроки в сфере ИИ становятся все более скрытными, когда речь заходит о технологиях, которые они производят, –считает Гэри Маркус, профессор Нью-Йоркского университета. – Это серьезно осложняет защиту общества от вреда, который может материализоваться».