"Безопасный AI" - это мошенничество
Снова по сети распространяются маркетинговые байки Сэма Альтмана про светлое будущее человечества в мире господства корпоративного ИИ. Та детская наивность с которой широкая общественность радостно восприняла эту болтовню, указывает, во-первых, на то, что мы находимся в эпицентре пузыря цикла Гартнера, подобного тем, что имели место при буме доткомов в начале нулевых или ажиотажа вокруг блокчейна в 2016-2018 годах; во-вторых, на то, что критическое мнение не особо продвигается в социальных медиа.
Потому я еще разок решил попытаться внести посильный вклад в распространение критического взгляда на вопрос ИИ и на сей раз подготовил материал для размышлений, заодно старая показать истинное назначение ИИ, которое останется, после того как высохнет пена у рта фанатов всемогущего цифрового разума.
Ниже привожу содержание видео Карла, разработчика c 35-летним бэкграундом в Microsoft , который на мой взгляд единственный в англоязычном ютубе стоит на страже трезвого мышления в вопросе технологий
В последние годы технокомпании не перестают твердить о “безопасности ИИ”. Мы слышим рассказы про угрозы, достойные сценария для следующего фильма “Терминатор” или “Матрица”. Мол, если мы не будем осторожны, суперумные машины однажды могут уничтожить человечество.
Почему AI-гиганты так уверенно вещают о возможных рисках для всего человечества, но умалчивают о проблемах, которые ИИ уже создаёт прямо сейчас?
Разговоры об ИИ-апокалипсисе — это классическая тактика смены темы. Как только кто-то начинает говорить о проблемах, таких как дипфейк-порно с участием Тейлор Свифт или аварии на автопилоте Tesla, AI-компании предпочитают сосредоточить внимание на далеких сценариях конца света. Ведь кто будет проверять, насколько реальны такие угрозы?
Пример №1: перед Супербоулом 2024 года Twitter заполнился дипфейк-порно с Тейлор Свифт, созданным при помощи AI, разработанного на базе технологий OpenAI. Как это случилось? А главное, почему никто не предупреждал, что подобное возможно?
Пример №2: Tesla, использующая автопилот, зафиксировала 736 аварий и 17 смертей. И опять, где разговоры о том, как ИИ не справляется с безопасностью на дорогах? Вместо этого мы слышим о гипотетических “суперумных” системах, которые могут возникнуть в будущем.
Реальные проблемы ИИ, которые никто не хочет обсуждать
Карл проводит прямую линию между тем, как AI-компании избегают обсуждения текущих проблем и тем, как они погружаются в фантазии о будущем. Он приводит массу примеров, которые ИИ-компании предпочли бы не обсуждать:
- Нарушение авторских прав: Виртуальный ассистент OpenAI звучит подозрительно похоже на Скарлетт Йоханссон, хотя она дважды отказалась от участия.
- Ошибки ИИ в социальной сфере: Пример из Нидерландов, где ИИ обвинил в мошенничестве 11 000 человек из-за ошибок в системе, без каких-либо проверок.
- AI в авиакатастрофах: Алгоритмы Boeing 737 MAX стали причиной двух крупных авиакатастроф, убивших 346 человек. Виноват был тот же самый AI, который должен был обеспечивать безопасность полетов.
Китай — новая страшилка для обывателя
Когда риторика про ИИ-апокалипсис уже не так впечатляет, на помощь приходит… Китай. Да-да, теперь на повестке дня не только опасности от гипотетических сверхумных машин, но и гонка с Китаем за ИИ-превосходство. Как утверждает Карл, генеральный директор OpenAI Сэм Альтман использует Китай в качестве нового пугала, чтобы оправдать свои действия. Его новая цель — не спасение мира от Скайнет, а предотвращение создания китайской версии Скайнет.
Альтман утверждает, что Китай может использовать ИИ для шпионажа за собственными гражданами и разработки кибероружия против других стран. То есть, теперь мы должны бояться не только мирового ИИ-апокалипсиса, но и того, что Китай "обгонит нас" в гонке за технологическим превосходством. Вопрос: насколько это изменяет ситуацию? А главное — не отводит ли это наше внимание от реальных проблем?
Почему нужно говорить о настоящем, а не о гипотетическом будущем?
Основной посыл Карла в том, что AI-компании манипулируют страхом перед гипотетической угрозой, избегая ответственности за то, что их технологии уже вредят людям здесь и сейчас. Пока разговоры сосредоточены на будущем, реальных пострадавших от AI никто не замечает.
Карл отмечает, что ИИ-системы по сути — это обычный софт. А значит, на них распространяются те же самые законы разработки ПО. Но вместо того, чтобы исправлять ошибки и внедрять новые функции постепенно, AI-компании пытаются создать идеальный продукт, игнорируя законодательство и этические нормы
Важность прозрачности и ответственности
Что предлагают компании вроде Microsoft, OpenAI и Google? Вместо честного разговора о проблемах — устрашающие прогнозы на тему конца света. Но Карл призывает к прозрачности: AI-компании должны не только учитывать данные, на которых обучаются их модели, но и компенсировать тем, чьи авторские права были нарушены.
Одна из идей, предложенных Карлом, — это модель, подобная Spotify, где авторы контента получают компенсацию за использование их материалов в обучении ИИ. Но пока даже ранние исследования в этой области забрасываются, а команды, занимающиеся этими вопросами, расформировываются.
Как бы сильно ни старались AI-компании отвлечь нас от текущих проблем, будущее с “умными машинами” наступит только тогда, когда они научатся справляться с настоящим. Вместо того, чтобы говорить о спасении мира от Скайнет, давайте заставим их решать сегодняшние задачи. Потому что сейчас их софт уже причиняет реальный вред реальным людям, и пока AI-индустрия пытается продать нам иллюзию безопасности, количество пострадавших только растёт.
AI - это раздуваемый пузырь.
AI - это программное обеспечение (ПО) и оно не является самостоятельным субъектом, как в этом пытаются убедить пропагандисты, закрывающие дефекты разработки корпоративного ПО болтовней о восстании машин.
AI - это продукт для извлечения выгоды корпорациями и любые разговоры о безопасности AI - это очередная попытка либо избавиться от конкурентов, либо уйти от решения проблем, которые некачественное ПО создает уже сегодня