|
Постоянный
Регистрация: 03.09.2006
Сообщений: 872
С нами:
10360604
Репутация:
0
|
|
И здесь всё снова упирается в острое несоответствие между понятием «искусственный интеллект» в актуальном сегодня практическом изводе — и общефилософским определением интеллекта как способности мыслить. В 2021 г. Кейт Кроуфорд (Kate Crawford), профессор-исследователь университета Южной Калифорнии и старший научный сотрудник подразделения Microsoft Research, в своей книге Atlas of AI сказала как отрезала: «ИИ — и не искусственный, и не интеллект». Приводимые ею аргументы можно суммировать так: ИИ не с Луны на нас свалился, а создан людьми из материалов, добытых ими же в природе и сложными путями преобразованных, — значит, к самостоятельному воспроизводству и тем более развитию без поддержки человека он не способен и потому не более искусственен, чем стальной молоток или углепластиковая клюшка. Те же самые люди таким образом создали, настроили и натренировали компьютерную систему, чтобы её поведение казалось автономным (в подлиннике — it is people who are performing the tasks to make the systems appear autonomous), и потому в конечном итоге лишь от людей напрямую зависит и само существование ИИ, и допускаемая в его действиях создателями — программистами, составителями обучающих массивов данных, тестировщиками, разработчиками дополнительных фильтров контента на входах и выходах модели — конечная мера свободы. Так что же, беспокоиться не о чем?
⇡#От лукавого
Хорошо; допустим, ИИ в нынешнем своём состоянии не то что не способен навредить человеку по собственной инициативе, но и вовсе лишён воли, представляя собой, по сути, чрезвычайно изощрённый инструмент для упорядочения уже и без того известных фактов, понятий, образов и пр., — почему, собственно, его логичнее именовать «искусственной интуицией». Но можно ли на этом основании считать его безопасным для человечества? Вот, скажем, термоядерная реакция в естественном своём виде, благодаря которой светит Солнце: она не то чтобы безопасна — просто в её отсутствие жизнь на Земле в принципе не зародилась бы. Но то же самое слияние атомов водорода с образованием ядра гелия и выделением избыточной энергии, реализованное уже людьми в виде термоядерной бомбы, бесспорно, представляет собой опасность — в том числе и для своих создателей. Так, может быть, даже современный генеративный ИИ способен выступать в роли не менее вредоносного и разрушительного инструмента — пусть не для физической инфраструктуры и не непосредственно для жизней людей, но для их процветания и благополучия?
Луддиты разъясняют машинкам, кто здесь власть (источник: Cecil Langley Doughty)
Луддиты разъясняют машинкам, кто здесь власть (источник: Cecil Langley Doughty)
Начиная со второй половины XVIII века по Великобритании прокатился самый, наверное, известный в истории человечества «бунт против машин» — когда рабочие, которых позже назвали луддитами, яростно громили прядильные и ткацкие станки. Непосредственной угрозы жизни и здоровью людей эти устройства, разумеется, нести не могли — зато за счёт совершенствования процесса изготовления тканей ощутимо сбивали расценки на труд обычных ткачей и прядильщиков, что приводило значительные массы людей, до того весьма высокооплачиваемых и ценимых (процесс обучения на хорошего чулочника, к примеру, занимал долгие годы), к обнищанию и голоду. Собственно, львиная доля аргументации ИИ-алармистов сводится именно к тому, что безответственное вытеснение генеративными (и не только) компьютерными моделями биологических специалистов приведёт к опасному снижению уровня услуг, которые эти специалисты прежде оказывали.
В точности как это было с шерстяными чулками во времена луддитов: живой чулочник на спицах кропотливо вывязывал цельное изделие сложной формы — в то время как станок погонными футами выпускал сплошное ровное полотно, которое затем быстро разрезали по лекалам и смётывали. Машинные чулки получались с неудобным швом, были менее прочными и долговечными, — зато обходились настолько дешевле hand-made-аналогов, что создатели последних за довольно короткое время образовали крайне немногочисленную касту гиперквалифицированных специалистов, обслуживавших лишь наиболее состоятельных клиентов. Не грозит ли подобная участь всем тем, чью работу уже сегодня готов исполнять ИИ — практически бесплатно (если не считать затрат на «железо», на тренировку моделей и на электроэнергию) и очень-очень быстро? И хуже того: что, если из-за перехода на «машинные чулки», выполненные генеративными моделями, человечество натрёт себе слишком уж болезненные мозоли?
Социопатический ИИ — лучший друг безумного учёного (источник: ИИ-генерация на основе модели SDXL 1.0)
Социопатический ИИ — лучший друг безумного учёного (источник: ИИ-генерация на основе модели SDXL 1.0)
Эксперты приводят такие примеры опасностей, порождаемых повсеместным внедрением ИИ и предпочтением выдаваемых им результатов плодам трудов биологических работников:
в гигантском объёме научных статей, публикуемых по всему миру ежемесячно тысячами, содержится немало некорректных выводов, полученных по сомнительным методикам результатов и просто откровенных подтасовок, — соответственно, обученный на содержащем их массиве ИИ будет заведомо допускать больше ошибок и даже прямых фальсификаций, чем добросовестный и критичный (пусть и не хватающий звёзд с неба) исследователь в той же области;
генеративный ИИ, что славится составлением крайне убедительных и доходчивых текстов, никто не мешает использовать для составления мошеннических писем, потокового формирования персонифицированных для каждого получателя спам-рассылок, для введения в заблуждение людей на сайтах знакомств и т. п.;
возможности ИИ по распознаванию лиц многочисленными и увязанными в единую систему камерами наблюдения государство обычно использует во благо обществу (обнаружение потерявшихся людей либо разыскиваемых преступников), но может применять и для быстрого отыскания неугодных; более того, успешный взлом подобной системы даёт в руки злоумышленникам сильнейший инструмент для слежения за своими жертвами;
трейдинговые алгоритмы уже довольно заметно лихорадят биржевую торговлю по всему миру, а если место алгоритмов займёт самообучаемый ИИ с присущими компьютеру возможностями мгновенного реагирования на любые вводные, и если несколько достаточно мощных ИИ такого рода схлестнутся между собой на крупной международной бирже, последствия для экономики всей планеты могут оказаться пусть не катастрофическими, но крайне неприятными;
ChatGPT и подобные боты своей доступностью уже оказывают медвежью услугу школьникам и студентам: составленное ИИ эссе, презентация или курсовые формально могут принести отличную оценку, но по сути воспользовавшийся помощью умного бота молодой человек лишает себя возможности получить важнейшие навыки самостоятельной работы с источниками, критического анализа исходных данных, мыслительной работы по упорядочению обширного материала — и в итоге не становится тем глубоким и думающим специалистом, на которого рассчитывают его потенциальные работодатели,
уже сегодня некоторые страховые компании в США напрямую увязывают размер выплачиваемой в случае аварии премии с количеством времени, проведённым владельцем авто за рулём с телефоном: работающий на страховщиков ИИ исправно фиксирует все ситуации, когда обращение к смартфону проводилось без использования гарнитуры или автомобильной системы hands free; и хотя такой подход можно объяснить искренней заботой о безопасности клиентов, он наглядно иллюстрирует, насколько широко доступная аналитика больших данных сокращает частное пространство рядового потребителя, добавляя ему психологической нагрузки и повышая уровень стресса;
ИИ чрезвычайно сложно обучить распознаванию контекста произнесённых слов и совершённых действий: ирония, тонкая игра интонаций, да и вообще сложные эмоции ему практически недоступны («Вовочка, трижды повтори, что Сидорова не дура, и извинись!» — «Сидорова не дура? Сидорова — не дура… Сидорова — не дура?! Ну-у, извините!..»), что превращает искусственный разум, по мнению отдельных экспертов, во всеведущего социопата без малейшей склонности к этическим колебаниям при принятии решений, — и это уже само по себе закрывает двери к применению подобных систем для решения сколько-нибудь серьёзных общественных и политических задач.
И, строго говоря, это только начало списка, — у экспертов накопилась масса претензий к ИИ, который на самом-то деле находится ещё только в начале своего развития. Всего лишь год с небольшим тому назад, ранней осенью 2022-го, о ChatGPT, Dall-E и подобных проектах имела представление лишь горсточка энтузиастов по всему миру — а сегодня без новостей об очередном достижении, провале или комичном выкрутасе какой-либо генеративной модели обходится редкий выпуск новостей. Тем не менее специалисты настроены серьёзно: глава компании Conjecture Коннор Лэхи (Connor Leahy), которого цитирует Fox News Digital, сравнивает генеративный ИИ ни много ни мало с Врагом рода человеческого: «Продолжая совершенствовать его в отсутствие ограничений, вы сделаете его умнее человека и, по определению, гораздо могущественнее человека. ИИ сможет вводить людей в заблуждение, манипулировать ими, — и в результате такие совращённые люди смогут развить новые технологии, куда более мощное оружие, новые системы, которые мы просто не состоянии будем понять, не то что контролировать». Просто алармистика какая-то.
⇡#На уровень ниже
Разбирая обеспокоенность отдельных экспертов в отношении ИИ, трудно отделаться от мысли, что из и вправду назойливой и малоприятной, но всё же мухи с достойным лучшего применения упорством раздувают довольно-таки ледащего слона. Скажем, почти всегда в числе первых примеров «неэтичного применения искусственного интеллекта» (заметьте, речь именно о применении носителями биологического разума, а не о самопроизвольных действиях ИИ) указывают на создание дипфейков — чрезвычайно убедительно сконструированных генеративными системами фото, аудио- и видеороликов с участием политиков, актёров и прочих известных персон. Дошло до того, что в стремлении гарантировать исключительно позитивное восприятие инвесторами, широкой публикой (а заодно и юристами крупных компаний) своих ИИ-моделей OpenAI и Microsoft наложили крайне суровые ограничения на то, что может и чего не может изображать новейший и на данный момент практически непревзойдённый инструмент для перевода текстовых подсказок в изображения — Dall-E 3 (доступный также через Bing Image Creator).
В ответ на попытку сгенерировать нечто, на взгляд составителей контент-фильтров, сомнительное пользователи Bing Image Creator получают эту небрежно отрисованную собаку и предупреждение: «Unsafe image content detected» (источник: Bing)
В ответ на попытку сгенерировать нечто, на взгляд составителей контент-фильтров, сомнительное пользователи Bing Image Creator получают эту небрежно отрисованную собаку и предупреждение: «Unsafe image content detected» (источник: Bing)
По сообщениям пользователей, модель частенько отказывается генерировать картинки, возвращая комментарий «Unsafe post content detected», при употреблении в подсказке слов вроде black, typical, Baphomet, sleep paralysis, nightmare — всё и не перечислить. Плюс к тому чётко фиксированного стоп-списка нет: часть блокированных ранее входными фильтрами терминов и словосочетаний возвращается в оборот (так было с «vodka bottles» и «girl sitting in a dark alley»), тогда как другие, прежде допустимые выражения внезапно оказываются запретными. За попытку использовать имя знаменитости при генерации сколько-нибудь сомнительного изображения (Emma Watson taking a bath) попросту банят. А в середине ноября, после жалобы Disney на пользователей, взявшихся создавать постеры несуществующих мультиков этой компании с изображениями собственных псов, Dall-E 3 перенастроили так, чтобы логотип Disney выглядел на выдаваемой картинке нарочито искажённым или размытым, — «иначе это выходит уже не пародия, а введение в заблуждение». Тут уже непросто разобраться, кто кому усложняет жизнь, — ИИ биологическим носителям разума или наоборот. Может, это как раз ботам стоит опасаться людей?
В конце марта 2023-го более тысячи экспертов, бизнесменов, исследователей в ИТ и смежных областях подписали составленное НКО Future of Life Institute довольно-таки алармистское открытое письмо, в котором настоятельно рекомендовали работающим над дальнейшим развитием ИИ лабораториям приостановить свою работу, поскольку-де тот представляет собой «серьёзный риск для общества и человечества». Объяснялась позиция подписантов, наиболее известными среди которых оказались — к немалому удивлению их поклонников по всему миру — Илон Маск (Elon Musk) и Стив Возняк (Steve Wozniak), весьма доходчиво: разработчики ИИ, мол, ввязались в «бесконтрольную гонку по созданию и внедрению всё более мощных цифровых разумов (в оригинале именно так — digital minds), которые никто, включая их создателей, не в силах понимать, предсказывать или надёжно контролировать».
Тем временем в прекрасном мире искусственной интуиции медведи продолжают покорять космос (источник: ИИ-генерация на основе модели SDXL 1.0)
Тем временем в прекрасном мире искусственной интуиции медведи продолжают покорять космос (источник: ИИ-генерация на основе модели SDXL 1.0)
Йошуа Бенджио (Yoshua Bengio), ставший в 2018 г. с коллегами одним из лауреатов премии Тьюринга (аналог Нобелевки для исследователей в области кибернетики и компьютерных наук) за работы в области нейросетей, прямо указывает, что большие языковые модели — large language models, LLM; одна из популярнейших сегодня разновидностей генеративного ИИ — на основе анализа огромных объёмов текстовых данных научаются выявлять в последовательностях символов (не слов! и тем более не понятий!) определённые закономерности, паттерны. А затем, используя заданный оператором вопрос как затравку и разлагая уже конкретно его на усвоенные системой паттерны, LLM составляет ответ, наилучшим образом соответствующий этим закономерностям — которые, повторим снова, исходно были выявлены путём анализа великого множества других текстов. Иначе говоря, LLM — этакая виртуализованная чеховская Душечка, у которой для каждого обратившегося к ней найдутся в точности те самые слова, которые тот искренне жаждет услышать. Почему, собственно, и возможны казусы вроде пресловутых нарочито правдоподобных описаний «медведей в космосе»: нейросеть не задаётся вопросом выживания крупных млекопитающих в условиях безвоздушного пространства; она вообще не в состоянии задаваться вопросами за полным отсутствием сознания. Зато она исправно комбинирует некую информацию, имеющую отношение отдельно к медведям и отдельно к космосу, в связный и довольно достоверный — если не вдумываться и не приниматься за фактчекинг — текст.
Ничего удивительного, продолжает Бенджио, нет в том, что умные чат-боты так удачно поддерживают беспредметную болтовню в чатах и так здорово помогают программистам с поиском ошибок в коде: и отвлечённых рассуждений на всевозможные темы, и корректных листингов программ во входном массиве данных, на которых обучена соответствующая LLM, было великое множество. Трудности начинаются, если резко сужать тематику разговора — или вдаваться в мало кем изученные дебри кодерских премудростей: там, где у нейросети не было возможности выстроить надёжные паттерны, она попросту не в силах собрать из доступных ей «букв» слово ВЕЧНОСТЬ. Именно поэтому ChatGPT, Bard, Character AI и иные схожие боты невольно — и куда чаще, чем хотелось бы их разработчикам и пользователям, в особенности платным, — становятся источниками дезинформации, излагают неточные данные или попросту несут какую-то дикую ахинею — «галлюцинируют», как это принято теперь называть в кругах ИИ-энтузиастов.
Именно в этой непредсказуемости соответствия объективной истине результатов выдачи LLM и кроется основа для беспокойства ИИ-алармистов. Одно дело — прочесть забавную попытку бота описать обитающих в космосе медведей, хмыкнуть и перейти к другим занятиям. Совсем другое — построить на основе генеративного ИИ умный контур амбулаторного мониторинга состояния здоровья и обнаружить вдруг, что по какой-то причине он не поднимает тревогу и не обращается к врачу, обнаружив выход определённых физиологических параметров за указанные рамки (как автоматически поступила бы любая построенная на алгоритмах «глупая» система), а рекомендует пациентам пить больше чая с малиной и прикладывать к больному горлу подорожник. Другой повод понервничать — так и не доведённые пока до ума боты эмоциональной поддержки, которые в ответ на излияния в духе «меня никто не любит, зачем вообще жить» вместо ободряющих слов начнут вдруг объяснять, как именно следует правильно резать вены. Принципиальная невозможность понимать, предсказывать и контролировать «ход мысли» генеративных моделей, на которую упирали подписанты письма Future of Life Institite, и является сегодня основным препятствием для широкого их применения в таких чувствительных отраслях, как медицина и социальные науки.
А ещё ИИ мог бы выгуливать собак, да (источник: ИИ-генерация на основе модели SDXL 1.0)
А ещё ИИ мог бы выгуливать собак, да (источник: ИИ-генерация на основе модели SDXL 1.0)
В то же время по другим направлениям — например, в части анализа многостраничных юридических текстов и формулирования их сути (со всеми тщательно замаскированными логическими уловками) в одном доходчивом абзаце — LLM по-настоящему нет равных: человек такую кропотливую, изнуряющую умственную работу проделает заведомо медленнее — и часто значительно хуже. Не случайно исследователи из OpenAI ещё весной 2023-го предсказали, что хотя около 80% наёмной рабочей силы в США смогут передоверить не более чем 10% своих повседневных занятий генеративному ИИ без опасений за результат, оставшиеся почти 20% в скором времени обнаружат, что по крайней мере половину их непосильных трудов без проблем смогут взять на себя роботы. Этой пятой части сотрудников на жалованье, часто очень и очень солидном, искусственный интеллект угрожает напрямую — пусть не им самим физически, но их благополучию, — и без боя новые луддиты поневоле, совершенно очевидно, своих позиций не сдадут. Применяя наверняка в том числе и такие чисто человеческие способы борьбы (потому, кстати, и перенятые LLM, что слишком уж много их примеров в оставляемых нашей цивилизацией цифровых следах!), как введение в заблуждение, дезинформация, передёргивание фактов, нагнетание панических настроений и т. п.
|