⇡#Выбор за человеком
В 2012 г. доктор Джоффри Хинтон (Geoffrey Hinton), профессор Университета Торонто, применил нейросетевой подход к проблеме машинного зрения — да так удачно, что получил всемирное признание в кругах занятых этой тематикой исследователей заодно с неофициальным титулом «крёстного отца ИИ». В мае 2023-го он не просто морально поддержал подписантов письма Future of Life Institite, но уволился из Google, где проработал более чем десятилетие, на протяжении которого ещё сильнее укрепил свой авторитет среди коллег, — чтобы «иметь возможность свободнее говорить об опасностях, порождаемых искусственным интеллектом». Кстати, именно Хинтон стал вместе с упомянутым выше Бенджио и третьим учёным, Янном Леканом (Yann LeCun), лауреатом той самой премии Тьюринга 2018 г. за вклад в развитие нейросетевых исследований. И вот, пожалуй, его взгляд на потенциальную опасность искусственного разума меньше прочих заслуживает называться алармистским — и достоин более пристального рассмотрения.
«Да, я не мыслю, — зато умею находить паттерны. Показать, насколько хорошо?» (источник: ИИ-генерация на основе модели SDXL 1.0)
«Да, я не мыслю, — зато умею находить паттерны. Показать, насколько хорошо?» (Источник: ИИ-генерация на основе модели SDXL 1.0)
По наблюдениям Хинтона, хотя построенный на основе нейросетей ИИ действительно не идёт ни в какое сравнение с человеческим интеллектом, это утверждение верно только в общем. Да, есть направления, по которым машина безнадёжно отстаёт, по крайней мере при нынешнем уровне технологий, — ни о каких самосознании, интроспекции, рефлексии в её отношении говорить не приходится. Искусственный интеллект не может мыслить, не говоря уже о том, чтобы мыслить критически. Зато он великолепно умеет, как уже подчёркивалось не раз, находить паттерны — определённые закономерности в длинных рядах данных, причём далеко не самые тривиальные и нередко совершенно не очевидные с человеческой точки зрения. Признавая очевидность того факта, что плотные многослойные компьютерные нейросети устроены иначе, чем биологические (и, скорее всего, не столь совершенны, как последние), Хинтон задаётся вопросом: а что, если эти более примитивные конструкции выполняют определённые задачи лучше — в смысле, эффективнее, — чем мириады нейронов в головном мозге человека? В этом случае может получиться так, что по каким-то отдельным направлениям биологический разум просто не в состоянии окажется состязаться с искусственным, — пускай при этом последний по формальному определению из словаря по-прежнему не будет считаться подлинно мыслящим.
Кому-то сегодня это может показаться ерундой: ну подумаешь, ChatGPT набросает тезисы курсовой работы по химии быстрее (и, в общем случае, вернее) среднего студента, а тот же Dall-E изобразит сердитого кота в смешной шляпе априори стремительнее и зачастую интереснее, чем наугад выбранный живой художник. Да, и ошибку в листинге написанной джуном программы — логическую ошибку, не просто опечатку в имени переменной! — LLM обнаружит куда скорее, чем самый дотошный миддл; а заодно внятно прокомментирует, что и почему было сделано не так, и в утешение подскажет оптимальный способ, как всё исправить. И… что ещё? Областей, в которых ИИ превосходит сегодня человека, не так уж и много. «Но это сегодня, — предостерегает Хинтон, — а вы посмотрите, на каком уровне эти модели были пять лет назад. А какими они станут ещё через пять? Это пугает».
Доктор Хинтон более здраво, чем рядовые алармисты, указывает и на опасность распространения ИИ-сгенерированной дезинформации в Сети. Страшна не сфабрикованная генеративными моделями ложь сама по себе — а то, что из-за неё через некоторое время люди просто перестанут воспринимать и фотоснимки, и видео в качестве достоверных свидетельств реальных событий. А это грозит если не крахом, то существенным переформатированием всей глобальной сферы СМИ, да и легитимного воздействия на массовое сознание в целом. Говорит исследователь и об угрозе целому ряду профессий, от секретарей-референтов до помощников адвокатов и переводчиков, которые из-за конкуренции с (почти) всезнающими и никогда не устающими ботами могут попросту исчезнуть. А дальше учёный делает довольно логичный вывод: если, допустим, LLM и впрямь так хороши в исправлении и генерации кода, а обучать и совершенствовать живого программиста — удовольствие дорогое и долгое, это почти наверняка побудит немалую долю коммерческих предприятий полностью положиться на ИИ в вопросах программирования. И генеративный интеллект будет исправно выдавать работоспособный код; при необходимости даже сможет прокомментировать каждую его строчку, — вот только останется ли к тому времени, кому проверять его листинги и пояснения?
Возможно, развивая ИИ, человечество создаёт не бледное подобие собственного разума, а начальную стадию совершенно чужого (источник: ИИ-генерация на основе модели SDXL 1.0)
Возможно, развивая ИИ, человечество создаёт не бледное подобие собственного разума, а начальную стадию совершенно чужого (источник: ИИ-генерация на основе модели SDXL 1.0)
Суть опасений доктора Хинтона и многих разделяющих его настороженность исследователей — в том, что предоставленный сам себе ИИ-программист рано или поздно начнёт писать необъяснимый с человеческой точки зрения код. Проблема не в том, что искусственный разум превосходит биологический; ничего он не превосходит. Проблема в том, что искусственный разум — иной, и чем активнее люди инвестируют в его развитие, тем более совершенным — и всё более иным, не поддающимся объяснению с позиций человеческой логики — он становится. Упоминание об инвестициях не случайно: сектор ИИ едва ли не один на современном глобальном ИТ-рынке демонстрирует прирост оборотов год к году, причём весьма значительный. Гиганты вроде Microsoft, Google, Tencent вынуждены, хотят того их сотрудники или нет, включаться в яростную гонку за первенство на этом участке, поскольку победитель имеет шанс заполучить всё — создав такую генеративную модель, которая на голову превзойдёт достижения конкурентов, и сорвав по-настоящему большой куш, что попросту жизненно важно в нынешних непростых макроэкономических реалиях.
Именно темп этой гонки и непредсказуемость её результатов пугают подписантов письма Future of Life Institite и им сочувствующих. Здесь, пожалуй, и впрямь становится возможной ситуация, когда на очередном эволюционном этапе свежая генеративная модель, заменив собой предыдущую — для решения тех же, что и прежде, задач, — вдруг выкинет что-то такое, что поставит под угрозу жизни людей; причём сегодня даже трудно определить границы возможной катастрофы. Что, если ИИ будет доверено управление группировкой спутников глобального позиционирования, например, и умная система вдруг решит — проанализировав невероятный для человека объём данных, — что наилучшим ответом на поставленную ей задачу будет одновременное и внезапное их отключение?
Пока что паттерны, которым следуют генеративные модели при обработке людских запросов, в целом биологических операторов вполне устраивают (источник: ИИ-генерация на основе модели SDXL 1.0)
Пока что паттерны, которым следуют генеративные модели при обработке людских запросов, в целом биологических операторов вполне устраивают (источник: ИИ-генерация на основе модели SDXL 1.0)
И вот тут как раз никакой мистики нет: логика искусственного интеллекта — точнее, его следование неявным для человека паттернам, объективно присутствующим во входных данных, — принципиально непостижима для биологического разума по причине недостаточности собственной «вычислительной мощи» последнего для самостоятельного обнаружения этих закономерностей. А значит, придётся для купирования возможных неприятных ситуаций строить дополнительные компьютерные модели (верифицирующие и, возможно, объясняющие людям работу основных), назначать биологических операторов для неусыпного надзора за действиями машин, предусматривать хитроумные предохранители и прочие меры предосторожности. Иметь на всякий случай в резерве Медею-другую тоже не помешает. И в итоге вся экономическая целесообразность применения ИИ для решения подлинно сложных задач (рисование кошкодевочек не трогаем, это святое) становится при таком развитии событий по меньшей мере сомнительной — с учётом необходимых накладных расходов. А иначе нельзя: ведь первый из упомянутых ближе к началу кустов возможностей по уничтожению биологического разума искусственным (или по меньшей мере крайнего затруднения условий существования первого) не так уж немыслим и невероятен, как это представлялось на основе беглого логического анализа — в рамках людской логики и после разъяснений уважаемых лауреатов премии Тьюринга.
По сути, сталкиваясь с неведомым, человечество за свою долгую историю сумело выработать лишь две действительно эффективные стратегии: «Не понимаешь — убей» и «Не понимаешь — изучи, пойми и научись сосуществовать к взаимной выгоде». Генеративный ИИ находится пока на самой ранней стадии своего развития, так что выбирать, как именно с ним обращаться, можно ещё по меньшей мере несколько лет, — собственно, по этой причине Future of Life Institite призывает притормозить, а не полностью прекратить разработку всё более сложных и слабопостижимых моделей. Но так или иначе принимать решение всё-таки однажды придётся — и оттягивать этот момент до бесконечности явно не выйдет.
Источник
https://3dnews.ru/1097122/ubit-ii-nelzya-sosushchestvovat-s-ii