• bitcoinBitcoin (BTC) $ 78,459.00 2.73%
  • dogecoinDogecoin (DOGE) $ 0.109738 2.77%
  • litecoinLitecoin (LTC) $ 55.66 0.03%
  • ethereum-classicEthereum Classic (ETC) $ 8.48 1.08%
  • kaspaKaspa (KAS) $ 0.032869 1.51%
  • zilliqaZilliqa (ZIL) $ 0.004030 1.94%
  • chiaChia (XCH) $ 2.22 2.61%
Аналитика

Да, ИИ ошибается, но это ещё полбеды. Плохо то, что он ошибается внезапно!

Да, ИИ ошибается, но это ещё полбеды. Плохо то, что он ошибается внезапно!

Искусственный интеллект действительно меняет всё — и именно в этом главная угроза: когда технология по-настоящему меняет всё, рынок перестаёт задавать неудобные вопросы.

Нынешний ажиотаж вокруг ИИ подпитывается не только инновациями. За ним стоит мощная смесь жадности и страха упустить выгоду. Когда эти две силы берут верх, на смену здравому смыслу приходит иррациональное поведение. Это не приговор технологии — это наблюдение за тем, как функционирует рынок. Мы уже проходили через подобное.

Когда стоимость капитала стремится к нулю

Есть верный признак того, что рынок перешёл от воодушевления к иррациональному оптимизму: стоимость капитала приближается к нулю. Когда риск перестают учитывать в цене, исчезает и дисциплина. Вопросы об окупаемости инвестиций, о последствиях возможных сбоев — всё это приносится в жертву в погоне за быстрой выгодой.

Капитал сегодня размещается почти бесконтрольно. Предприниматели усвоили: добавить «ИИ» к описанию любого продукта — значит открыть многие двери. Корпорации делают масштабные ИИ-закупки, однако по большей части в рамках R&D — пытаясь понять, что эта технология означает для их бизнеса, прежде чем конкурент опередит их. Параллельно работает механизм рециркуляции: значительная часть доходов ИИ-компаний поступает от других ИИ-компаний, покупающих вычислительные мощности и сервисы. Каждый доллар при этом считается за десять.

Это и есть проблема краткосрочного преувеличения. Путь от революционной технологии до устойчивой ценности никогда не бывает прямым — эпоха доткомов это доказала. Мы склонны переоценивать краткосрочный эффект и недооценивать долгосрочный. Сейчас мы находимся именно в фазе переоценки.

Почему барьеры — не теория

Наряду с потоком капитала, вливающегося в ИИ, существует длинный и по большей части нерешённый перечень реальных препятствий для массового внедрения.

Среди них — рекурсивное загрязнение данных. Большие языковые модели генерируют огромные объёмы контента, который затем используется как обучающий материал для следующего поколения моделей. Ошибки и галлюцинации усиливаются с каждым циклом. Это напоминает многократное копирование копии: качество неуклонно падает, и в итоге невозможно установить, каким был исходный источник. Индустрия уже обращается к синтетическим данным, чтобы компенсировать нехватку качественного человеческого контента, — однако это рискует ускорить деградацию, а не устранить её.

Ещё серьёзнее проблема отравления данных. Злоумышленники могут намеренно искажать обучающую выборку, и однажды внедрённый «яд» остаётся в модели навсегда. Особенно опасен военный сценарий: ИИ, обученный распознавать своих и чужих на основе скомпрометированных данных, обнаружит скрытую уязвимость лишь в разгар реального конфликта. Задокументировано, что для отравления языковых моделей любого размера достаточно всего 250 вредоносных документов — это делает атаки на обучающие данные не гипотетической угрозой, а вполне актуальной проблемой кибербезопасности.

Отдельная проблема — непрозрачность моделей. ИИ-вендоры в основном скрывают, что именно находится внутри их систем. Независимо проверить, насколько модель безопасна, объективна и точна, практически невозможно. Вице-президент Cisco Том Гиллис (Tom Gillis) прямо указывает: для чувствительных задач модели следует запускать на собственной инфраструктуре, а не в облаке — потому что никто не знает наверняка, что там происходит.

Пока эти проблемы не будут решены применительно к каждому конкретному сценарию использования, массовое внедрение ИИ не произойдёт — и не должно происходить — в том масштабе, который рынок закладывает в текущие оценки.

Скорость машин меняет уравнение риска

Главная опасность ИИ — не в том, что что-то может пойти не так, а в том, как быстро это происходит. Исторически человек в цепочке принятия решений был своеобразным предохранителем — тем, что замедляло процессы достаточно, чтобы в нужный момент включилось суждение. Агентный ИИ этот предохранитель убирает полностью.

Одни только последствия для наступательных кибератак должны заставить любой совет директоров насторожиться. Прежде экономика сдерживала злоумышленников от автоматизации атак в полном объёме: это попросту было невыгодно. Машинное обучение снимает это ограничение. Когда ИИ-системы взаимодействуют друг с другом за пределами контролируемой среды и что-то идёт не так на скорости машины — остановить это может оказаться невозможным. Непредвиденные последствия этой технологии, о которых мы ещё даже не начали думать, не будут развиваться медленно.

Что делать инвесторам и советам директоров

Всё это — не аргумент против ИИ. Ядерная энергия — один из самых мощных и чистых источников энергии из когда-либо созданных. И одновременно — материал для бомб. Технология сама по себе не выбирает. Выбираем мы. Разница — в наличии или отсутствии дисциплины, ограничений и трезвой оценки последствий.

Компании и инвесторы, которые сформируют долгосрочный ИИ-ландшафт, — не те, кто движется быстрее всех прямо сейчас. А те, кто движется наиболее осознанно. Когда стоимость капитала нормализуется — а это произойдёт — устоят именно те, кто внедрял ИИ под конкретные задачи, кто выстраивал понимание рисков и доходности до масштабирования. Именно так всегда строились устойчивые компании.

Для советов директоров и управляющих капиталом задача — не притормозить, а сфокусироваться. Задавать вопросы, которые рынок сейчас игнорирует. Разграничивать R&D и производственное развёртывание. Чётко понимать, на каком этапе реально находится организация. Требовать конкретики в сценариях применения: «мы используем ИИ» — это не стратегия. Учитывать риски в финансовых моделях и повестке советов директоров как приоритетные факторы, а не сноски.

Долгосрочный трансформационный потенциал ИИ реален — и его по-прежнему недооценивают. Золото существует. Но дисциплина состоит в том, чтобы отличать его от блёстки и иметь терпение, чтобы это различие имело значение.

Мнение ИИ

Анализ исторических паттернов технологических циклов открывает любопытный слепой угол в дискуссии об ИИ-рисках: проблема может быть не в скорости распространения технологии, а в устойчивом разрыве между инвестициями и реальной отдачей. Данные показывают, что 69% компаний формально используют ИИ, однако девять из десяти руководителей не зафиксировали измеримого влияния технологии на производительность — при глобальных корпоративных инвестициях в $581,7 млрд за 2025 год. Это не просто тревожный сигнал — это структурная аномалия, которую рынок пока предпочитает не замечать.

Ситуация напоминает золотую лихорадку: по-настоящему богатели не те, кто искал золото, а те, кто продавал лопаты. Сегодняшние «продавцы лопат» — производители чипов и облачной инфраструктуры — получают реальную выручку независимо от того, найдут ли корпорации своё «золото» в виде окупаемости ИИ-внедрений.

Источник: cryptonews.net

Related Articles

Back to top button