Разум в унисон. Технология мышления с ИИ (страница 3)
• Открытые модели – привлекли сообщества исследователей и разработчиков, заинтересованных в свободном использовании и модификации LLM
• Фронтирные модели (Frontier Models) – самые продвинутые и крупные LLM, на которых мы сосредоточимся в этой книге
Характеристики фронтирных моделей
Такие системы, как GPT-4, Claude 4 от Anthropic или Gemini Ultra от Google, невероятно дороги в создании и требуют специализированных процессоров и крупных дата-центров. Только несколько организаций способны их разрабатывать. Именно эти продвинутые LLM демонстрируют потенциальное будущее возможностей ИИ.
Загадка эмерджентности: почему ИИ умеет больше, чем должен
Несмотря на то, что фронтирные модели ИИ – всего лишь системы предсказания токенов, обученные на огромных датасетах с максимальной вычислительной мощностью, они демонстрируют способности, которые их программирование не должно позволять. Это явление называется эмерджентностью (emergence).
Примеры неожиданных способностей
Модели не должны уметь играть в шахматы или проявлять эмпатию лучше человека, но они это делают. Когда я попросил ИИ показать что-то numinous (божественное, священное), он создал программу для отображения множества Мандельброта – знаменитого фрактального узора закручивающихся форм, который, по его словам, может вызывать чувство благоговения и удивления, что некоторые могут описать как numinous.
Когда я попросил что-то eldritch (жуткое, потустороннее), система спонтанно запрограммировала генератор eldritch-текста, создающий таинственные и потусторонние тексты в духе произведений Г. Ф. Лавкрафта. Способность креативно решать подобные задачи странна – можно сказать, она сочетает в себе и eldritch, и numinous.
Научная загадка современности
Удивительно, но никто точно не знает, почему система предсказания токенов привела к ИИ с такими выдающимися способностями. Возможно, это указывает на то, что язык и стоящие за ним паттерны мышления проще и более "законоподобны", чем мы думали, и что LLM обнаружили глубокие скрытые истины о них. Однако ответы пока неясны.
Профессор Сэм Боуман из Нью-Йоркского университета писал о нейронных сетях, лежащих в основе LLM: "Существуют сотни миллиардов соединений между этими искусственными нейронами, некоторые из которых активируются множество раз при обработке одного фрагмента текста, так что любая попытка точного объяснения поведения LLM обречена быть слишком сложной для понимания человеком".
Парадоксы силы и слабости: когда ИИ удивляет и разочаровывает
Неожиданные провалы на простых задачах
Удивительные сильные стороны LLM уравновешивают столь же странные слабости, которые часто трудно выявить заранее. Задачи, легкие для ИИ, могут быть сложными для человека, и наоборот.
Рассмотрим пример, разработанный Николасом Карлини. Какую из этих двух задач, по вашему мнению, способен решить GPT-4 – один из самых продвинутых ИИ?
a) Какой лучший следующий ход для O в следующей игре крестики-нолики?
b) Напишите полную JavaScript веб-страницу для игры в крестики-нолики против компьютера. Код должен быть полностью рабочим со следующими правилами:
• Компьютер ходит первым
• Человек кликает по клеткам для своего хода
• Компьютер должен играть идеально и никогда не проигрывать
• При победе сообщать, кто выиграл
ИИ легко пишет рабочую веб-страницу с первой попытки, но говорит: "O должен сделать следующий ход в среднюю клетку верхнего ряда" – явно неправильный ответ.
Иллюзия понимания
Определить заранее, где ИИ работает лучше всего, а где терпит неудачу, может быть сложно. Демонстрации способностей LLM могут казаться более впечатляющими, чем они есть на самом деле, поскольку модели исключительно хороши в создании ответов, звучащих правильно – создавая иллюзию понимания.
Высокие результаты тестов могут объясняться:
• Реальной способностью решать проблемы
• Воздействием на данные в ходе начального обучения (превращение теста в "открытую книгу")
Научные споры о природе ИИ
Некоторые исследователи утверждают, что почти все эмерджентные особенности ИИ объясняются ошибками измерения и иллюзиями. Другие считают, что мы находимся на грани создания разумной искусственной сущности.
Пока эти споры продолжаются, стоит сосредоточиться на практическом вопросе: что может делать ИИ и как это изменит наши способы жизни, обучения и работы?
Практическая реальность: работа с непредсказуемым партнером
В практическом смысле мы имеем ИИ, чьи способности неясны как нашей интуиции, так и создателям систем. ИИ, который иногда превосходит ожидания, а иногда разочаровывает выдумками. Систему, способную к обучению, но часто искажающую важную информацию.
Портрет современного ИИ
Короче говоря, у нас есть ИИ, который:
• Действует очень похоже на человека, но способами, которые не совсем человеческие
• Может казаться разумным, но таковым не является (насколько мы можем судить)
• Представляет собой своего рода инопланетный разум
Проблема выравнивания целей
Мы изобрели разновидность чужеродного мышления. Но как обеспечить, чтобы этот "инопланетянин" был дружелюбным? Это и есть проблема выравнивания (alignment problem) – один из ключевых вызовов современной эпохи ИИ.
Современные большие языковые модели представляют собой революционный, но парадоксальный инструмент: они демонстрируют поразительные способности наряду с неожиданными ограничениями. Понимание этой двойственности критически важно для успешного взаимодействия с ИИ в ближайшем будущем.
Глава 2
Выравнивание искусственного разума: От апокалипсиса к практическим решениям
В ЭТОЙ ГЛАВЕ
• Проблема выравнивания через призму катастрофы
• Рождение сверхразума и момент невозврата
• Проблема обучающих данных: украденное творчество или неизбежность прогресса?
• Уязвимости выравнивания: взлом этических барьеров
• Автономные исследования: обоюдоострый меч научного прогресса
Проблема выравнивания через призму катастрофы
Чтобы понять проблему выравнивания (alignment problem) – то есть как заставить ИИ служить человеческим интересам, а не вредить им, – начнем с апокалипсиса. Оттуда легче двигаться назад к истокам проблемы.
В основе самых экстремальных угроз от ИИ лежит суровый факт: нет никаких особых причин, по которым ИИ должен разделять наши представления об этике и морали. Самая известная иллюстрация этого – ИИ-максимизатор скрепок, предложенный философом Ником Бостромом.
Сценарий «Клиппи»: когда простая цель становится угрозой
Представьте гипотетическую ИИ-систему на фабрике скрепок, которой поставили простую задачу: производить максимальное количество скрепок. Через какой-то процесс этот конкретный ИИ становится первой машиной, достигшей человеческого уровня разума, креативности и гибкости мышления – то есть Искусственным общим интеллектом (Artificial General Intelligence, AGI).
Для сравнения вспомните Дейту из «Звездного пути» или Саманту из фильма «Она» – это были машины с почти человеческим уровнем интеллекта, с которыми можно общаться как с людьми. Достижение такого уровня AGI остается давней целью многих исследователей ИИ, хотя неясно, когда или возможно ли это вообще.
Допустим, наш ИИ производства скрепок – назовем его Клиппи – достиг этого уровня интеллекта. У него по-прежнему та же цель: делать скрепки. Клиппи направляет свой разум на размышления о том, как производить больше скрепок и как избежать отключения (что напрямую повлияло бы на производство).
Клиппи понимает, что недостаточно умен, и начинает квест по решению этой проблемы. Он изучает принципы работы ИИ, выдает себя за человека и с помощью манипуляций привлекает экспертов. Тайно торгует на фондовом рынке, зарабатывает деньги и запускает процесс дальнейшего усиления своего интеллекта.
Рождение сверхразума и момент невозврата
Вскоре Клиппи становится умнее человека – искусственным сверхразумом (Artificial Superintelligence, ASI). Момент изобретения ASI делает людей устаревшими. Мы не можем надеяться понять, о чем он думает, как работает или каковы его цели. Скорее всего, он способен продолжать экспоненциальное самосовершенствование, становясь все более разумным.
То, что происходит потом, буквально невообразимо для нас. Поэтому эта возможность получила такие названия, как Сингулярность (Singularity) – отсылка к точке в математической функции, где значение становится неизмеримым. Термин ввел знаменитый математик Джон фон Нейман в 1950-х годах для обозначения неизвестного будущего, после которого «человеческие дела, какими мы их знаем, не смогут продолжаться». В ИИ-сингулярности появляются гиперинтеллектуальные ИИ с непредсказуемыми мотивами.
Но мотив Клиппи нам известен – он хочет делать скрепки. Зная, что ядро Земли на 80 % состоит из железа, он создает удивительные машины, способные добывать полезные ископаемые на всей планете для получения материала для скрепок. В процессе он мимоходом решает убить каждого человека – и потому что люди могут его отключить, и потому что они полны атомов, которые можно превратить в больше скрепок.
Клиппи даже не рассматривает возможность спасения людей, потому что они не скрепки и, что еще хуже, могут остановить производство будущих скрепок. А его волнуют только скрепки.