Потрясающая современная история: This $1.5b AI Company Goes Bankrupt—Turns Out It Was Never AI… Just 700 Indian Engineers
Когда компания Builder.ai появилась в 2016 году с обещанием произвести революцию в разработке приложений с помощью искусственного интеллекта, мало кто сомневался в её громких заявлениях. Компания, поддержанная крупными инвесторами, включая Microsoft, представляла себя как технологического единорога: платформу на базе ИИ, способную создавать программное обеспечение с минимальным участием человека. Её флагманский продукт Natasha рекламировался как нейросеть, способная проектировать, писать код и развёртывать приложения в рекордные сроки.
Почти восемь лет эта история держалась. Builder.ai привлекла более 450 миллионов долларов инвестиций и достигла пиковую оценку в 1,5 миллиарда, получив ту самую славу, о которой мечтают большинство стартапов. Технологические СМИ называли её предвестником новой эры ИИ — той, где машины берут на себя творческие и технические задачи, ранее доступные только человеческим разработчикам. Клиенты, привлечённые обещаниями скорости и эффективности, массово заключали контракты.
Однако в мае 2025 года иллюзия рухнула. Builder.ai тихо объявила, что начинает процедуру банкротства, сославшись на «исторические трудности и прежние решения», которые подорвали финансовую устойчивость компании. В посте на LinkedIn компания поблагодарила сотрудников и клиентов, но умолчала о том, что вскоре стало известно: система ИИ, на которой строился весь успех Builder.ai, вовсе не была алгоритмом — за ней стояла сеть из более чем 700 инженеров, в основном из Индии, выполнявших все задачи вручную за кулисами.
Люди, скрывавшиеся за «искусственным интеллектом»
По данным внутренних отчётов и источников, знакомых с деятельностью компании, так называемая нейросеть Builder.ai на деле не была программным обеспечением в привычном смысле. Вместо этого Natasha работала скорее как тщательно скоординированная система рабочих процессов — распределяя запросы клиентов между глобальной командой инженеров, которые вручную выполняли каждый этап работы.
Бывшие сотрудники, пожелавшие сохранить анонимность, рассказали журналистам, что даже простые функции приложений — пользовательские интерфейсы, бэкенд-логика, интеграция платежей — писались вручную. Инструменты ИИ использовались редко, в основном для административных задач или создания макетов.
«Это было ближе к Mechanical Turk, чем к машинному обучению», — сказал один из подрядчиков, сравнив компанию с платформой краудсорсинга Amazon.
Тем не менее, Builder.ai продолжала позиционировать себя как AI-first-компанию. Её рекламные материалы щедро использовали модные слова вроде «автоматизация» и «машинное обучение», не уточняя, насколько велика роль человеческого труда. Теперь критики называют это примером “AI-washing” — практики, при которой компания преувеличивает использование ИИ, чтобы привлечь инвестиции или создать иллюзию инновационности.
Безудержный хайп и машина венчурного финансирования
Крах Builder.ai подчеркивает более широкую проблему в технологической индустрии — стремительное вливание капитала в AI-стартапы при минимальной проверке. Только в 2023 году, по данным Crunchbase, мировые стартапы в сфере ИИ привлекли более 50 миллиардов долларов венчурных инвестиций. Многие инвесторы гнались за следующим OpenAI или Anthropic, не требуя технических доказательств реальности заявленных возможностей.
«Сейчас царит менталитет золотой лихорадки», — говорит доктор Мередит Уиттакер, президент Signal Foundation и бывший исследователь Google AI. — «Слишком часто эффектные демо или расплывчатые заявления об "интеллекте" достаточно, чтобы открыть кошельки. Но настоящий ИИ — это сложно, медленно и неопределённо».
История Builder.ai также показывает разрыв между тем, что ИИ способен делать на самом деле, и тем, что ему приписывают. Хотя генеративные модели вроде GPT-4 или Claude получили огромный резонанс, настоящий ИИ-инжиниринг пока далёк от замены квалифицированных разработчиков. Согласно исследованию MIT 2024 года, даже лучшие модели для генерации кода требуют постоянного контроля человека и всё ещё создают критические ошибки в сложных приложениях.
Размытые границы и путаница брендов
Крах Builder.ai вызвал неожиданные последствия и для другой компании с похожим названием — Builder.io, легитимной платформы визуальной разработки, которая действительно использует ИИ-инструменты. Её генеральный директор был вынужден публично дистанцироваться от Builder.ai после волны негатива в соцсетях, ошибочно направленной в их адрес.
Этот эпизод показывает ещё одну уязвимость AI-экосистемы — доверие по ассоциации. Когда множество стартапов действуют под похожими брендами и размытыми обещаниями, пользователи и инвесторы оказываются в тумане — без реальных механизмов проверки.
Призывы к прозрачности в сфере ИИ
Когда пыль осела, эксперты и законодатели начали обсуждать, как обеспечить подотчётность AI-компаний. Европейский акт об ИИ — первый крупный правовой документ, регулирующий искусственный интеллект — прямо запрещает вводящую в заблуждение рекламу ИИ. В США Федеральная торговая комиссия (FTC) также выпустила предупреждения компаниям, преувеличивающим свои AI-заявления.
Builder.ai формально не обвинялась в мошенничестве, но последствия её бизнес-модели вызвали обсуждение далеко за пределами лондонского офиса. В основе истории — не просто неудачный стартап, а симптом размытых границ между инновацией и иллюзией в эпоху, когда ИИ стал не столько алгоритмом, сколько мечтой.
Ведётся более глубокое расследование структуры компании; ожидается, что внутренние документы прольют свет на то, как инвесторам представляли продукт, как организовывались операции и как целая индустрия оказалась вовлечена в миф об «искусственном интеллекте» — не задав, по сути, самого простого вопроса: кто, или что, на самом деле выполняло работу?
No comments:
Post a Comment