"Безопасный AI" - это мошенничество

"Безопасный AI" - это мошенничество

Снова по сети распространяются маркетинговые байки Сэма Альтмана про светлое будущее человечества в мире господства корпоративного ИИ. Та детская наивность с которой широкая общественность радостно восприняла эту болтовню, указывает, во-первых, на то, что мы находимся в эпицентре пузыря цикла Гартнера, подобного тем, что имели место при буме доткомов в начале нулевых или ажиотажа вокруг блокчейна в 2016-2018 годах; во-вторых, на то, что критическое мнение не особо продвигается в социальных медиа.

Потому я еще разок решил попытаться внести посильный вклад в распространение критического взгляда на вопрос ИИ и на сей раз подготовил материал для размышлений, заодно старая показать истинное назначение ИИ, которое останется, после того как высохнет пена у рта фанатов всемогущего цифрового разума.

Ниже привожу содержание видео Карла, разработчика c 35-летним бэкграундом в Microsoft , который на мой взгляд единственный в англоязычном ютубе стоит на страже трезвого мышления в вопросе технологий

Содержания транскрибировано и переведено в текст при помощи ИИ



В последние годы технокомпании не перестают твердить о “безопасности ИИ”. Мы слышим рассказы про угрозы, достойные сценария для следующего фильма “Терминатор” или “Матрица”. Мол, если мы не будем осторожны, суперумные машины однажды могут уничтожить человечество. 

Почему AI-гиганты так уверенно вещают о возможных рисках для всего человечества, но умалчивают о проблемах, которые ИИ уже создаёт прямо сейчас?


Разговоры об ИИ-апокалипсисе — это классическая тактика смены темы. Как только кто-то начинает говорить о проблемах, таких как дипфейк-порно с участием Тейлор Свифт или аварии на автопилоте Tesla, AI-компании предпочитают сосредоточить внимание на далеких сценариях конца света. Ведь кто будет проверять, насколько реальны такие угрозы?

Пример №1: перед Супербоулом 2024 года Twitter заполнился дипфейк-порно с Тейлор Свифт, созданным при помощи AI, разработанного на базе технологий OpenAI. Как это случилось? А главное, почему никто не предупреждал, что подобное возможно?

Пример №2: Tesla, использующая автопилот, зафиксировала 736 аварий и 17 смертей. И опять, где разговоры о том, как ИИ не справляется с безопасностью на дорогах? Вместо этого мы слышим о гипотетических “суперумных” системах, которые могут возникнуть в будущем.

Реальные проблемы ИИ, которые никто не хочет обсуждать

Карл проводит прямую линию между тем, как AI-компании избегают обсуждения текущих проблем и тем, как они погружаются в фантазии о будущем. Он приводит массу примеров, которые ИИ-компании предпочли бы не обсуждать:

  • Нарушение авторских прав: Виртуальный ассистент OpenAI звучит подозрительно похоже на Скарлетт Йоханссон, хотя она дважды отказалась от участия.
  • Ошибки ИИ в социальной сфере: Пример из Нидерландов, где ИИ обвинил в мошенничестве 11 000 человек из-за ошибок в системе, без каких-либо проверок.
  • AI в авиакатастрофах: Алгоритмы Boeing 737 MAX стали причиной двух крупных авиакатастроф, убивших 346 человек. Виноват был тот же самый AI, который должен был обеспечивать безопасность полетов.

Китай — новая страшилка для обывателя

Когда риторика про ИИ-апокалипсис уже не так впечатляет, на помощь приходит… Китай. Да-да, теперь на повестке дня не только опасности от гипотетических сверхумных машин, но и гонка с Китаем за ИИ-превосходство. Как утверждает Карл, генеральный директор OpenAI Сэм Альтман использует Китай в качестве нового пугала, чтобы оправдать свои действия. Его новая цель — не спасение мира от Скайнет, а предотвращение создания китайской версии Скайнет.

Альтман утверждает, что Китай может использовать ИИ для шпионажа за собственными гражданами и разработки кибероружия против других стран. То есть, теперь мы должны бояться не только мирового ИИ-апокалипсиса, но и того, что Китай "обгонит нас" в гонке за технологическим превосходством. Вопрос: насколько это изменяет ситуацию? А главное — не отводит ли это наше внимание от реальных проблем?

Почему нужно говорить о настоящем, а не о гипотетическом будущем?

Основной посыл Карла в том, что AI-компании манипулируют страхом перед гипотетической угрозой, избегая ответственности за то, что их технологии уже вредят людям здесь и сейчас. Пока разговоры сосредоточены на будущем, реальных пострадавших от AI никто не замечает.

Карл отмечает, что ИИ-системы по сути — это обычный софт. А значит, на них распространяются те же самые законы разработки ПО. Но вместо того, чтобы исправлять ошибки и внедрять новые функции постепенно, AI-компании пытаются создать идеальный продукт, игнорируя законодательство и этические нормы

Важность прозрачности и ответственности

Что предлагают компании вроде Microsoft, OpenAI и Google? Вместо честного разговора о проблемах — устрашающие прогнозы на тему конца света. Но Карл призывает к прозрачности: AI-компании должны не только учитывать данные, на которых обучаются их модели, но и компенсировать тем, чьи авторские права были нарушены.

Одна из идей, предложенных Карлом, — это модель, подобная Spotify, где авторы контента получают компенсацию за использование их материалов в обучении ИИ. Но пока даже ранние исследования в этой области забрасываются, а команды, занимающиеся этими вопросами, расформировываются.

Как бы сильно ни старались AI-компании отвлечь нас от текущих проблем, будущее с “умными машинами” наступит только тогда, когда они научатся справляться с настоящим. Вместо того, чтобы говорить о спасении мира от Скайнет, давайте заставим их решать сегодняшние задачи. Потому что сейчас их софт уже причиняет реальный вред реальным людям, и пока AI-индустрия пытается продать нам иллюзию безопасности, количество пострадавших только растёт.


AI - это раздуваемый пузырь.

AI - это программное обеспечение (ПО) и оно не является самостоятельным субъектом, как в этом пытаются убедить пропагандисты, закрывающие дефекты разработки корпоративного ПО болтовней о восстании машин.

AI - это продукт для извлечения выгоды корпорациями и любые разговоры о безопасности AI - это очередная попытка либо избавиться от конкурентов, либо уйти от решения проблем, которые некачественное ПО создает уже сегодня