Команди стартапів у Кремнієвій долині люблять називати свої продукти «деструктивними інноваціями», але жодна компанія, окрім Anthropic, не стикалася з реальною кризою виживання, створюючи цю саму деструктивну інновацію. Коли «деструктивні інновації» стали банальним кліше для венчурних інвесторів у Кремнієвій долині, Anthropic продемонструвала світові сучасний апокаліпсис: технологічний прорив подвоїв оцінку компанії, але політичні ярлики та регуляторні шторми знизили її до дна. Ексклюзивно журнал Time розкрив історію цієї групи аутсайдерів у сфері штучного інтелекту: як ця компанія, яка обіцяє захищати людство, виживає у тіні високого політичного тиску та оточена ворогами у контексті національної безпеки?
Anthropic швидко зростає і стає загрозою для ІТ-індустрії
У сфері комерційного застосування штучного інтелекту оцінка Anthropic вже досягла 380 мільярдів доларів, а її доходи суттєво зросли, навіть перевищивши такі гіганти, як Goldman Sachs, McDonald’s і Coca-Cola. Продукт компанії, Claude, здатен самостійно виконувати код, виявляти помилки та оптимізувати системи, що кардинально змінює традиційний підхід інженерів-програмістів. Інвестори вже помітили, що Anthropic має здатність впливати на фінансовий ринок: кожного разу, коли виходить нова версія, це спричиняє різкі коливання у секторі програмного забезпечення. Генеральний директор Дарио Амоді прогнозує, що протягом п’яти-десяти років штучний інтелект може замінити більшість білих комірців. Такий успіх у бізнесі поєднується з соціальними ризиками, що викликає внутрішній конфлікт у команді з оцінки суспільних наслідків: з одного боку, вони прагнуть підвищити продуктивність і результати компанії, з іншого — бояться, що їхні продукти спричинять масове безробіття.
Потенційні ризики Claude 3.7 Sonnet
Зі своєю місією захищати людство Anthropic опинилася в епіцентрі технологічного прориву та урядового регулювання. Стримуючи етичні межі, компанія стикається з блокуваннями, коли її продукти закуповуються Міністерством оборони США.
За внутрішніми тестами, Claude виконує деякі критичні завдання у 427 разів швидше за людину. У лютому минулого року технічні фахівці Anthropic виявили, що майбутня версія Claude має потенціал допомагати у створенні біологічної зброї. Це відкриття змусило компанію терміново відкласти запуск Claude 3.7 Sonnet, що свідчить про високий рівень уваги до безпеки. Лідер команди червоних команд Anthropic, Логан Грем, наголосив, що у разі можливості ядерної війни або людського вимирання, розробники несуть величезну соціальну відповідальність. На сьогоднішній день у галузі не існує єдиної прийнятої моделі вирішення таких питань, і команда має балансувати між конкуренцією за ресурси та управлінням ризиками. Ці стандарти, що ставлять безпеку людства понад усе, роблять Anthropic унікальною компанією у сфері штучного інтелекту.
Конфлікт між корпоративною етикою та політикою адміністрації Трампа
Відносини Anthropic із урядом США почали стрімко погіршуватися минулого року. Оскільки компанія відмовилася використовувати штучний інтелект для створення автоматизованої зброї та громадського контролю, вона відхилила пропозицію Пентагону щодо повторних переговорів. У відповідь адміністрація Трампа внесла Anthropic до списку постачальників, що становлять загрозу національній безпеці — вперше у США таке позначення було застосоване до внутрішньої компанії. Міноборони вважає, що приватні компанії не повинні обмежувати військові системи управління, а Амоді у внутрішніх меморандумі зазначив, що це сталося через відмову компанії фінансувати Трампа та співпрацювати з певною політичною програмою, а також через прагнення до прозорого регулювання. Цей конфлікт призвів до того, що конкуренти, зокрема OpenAI, отримали військові контракти. Головна проблема — хто має право обмежувати технології.
Засновник Амоді — «художник» у світі штучного інтелекту
Говорячи про принципи Anthropic, не можна не згадати унікальність її засновника, Амоді. У 2024 році він написав статтю на 14 000 слів, у якій описав, як штучний інтелект може прискорити наукові відкриття і змінити світ у бік утопії. У січні цього року Амоді опублікував другий роман середньої довжини, у якому детально описав кризи, що можуть виникнути через прогрес AI: масштабний нагляд, безробіття, втрату контролю над людством тощо. Хто з засновників стартапів наважиться так знизити очікування щодо власних продуктів і побоюватися спричинити нещастя інших?
OpenAI тим часом перемагає у бізнесовій боротьбі
За повідомленнями Time, Anthropic не здогадувалася, що поки вона шукає відповіді, Пентагон вже веде переговори з OpenAI щодо впровадження ChatGPT у державних системах. Пізніше з’явилася інформація, що засновник OpenAI, Сем Альтман, нібито досяг домовленості з Пентагоном, і ця угода має схожі з Anthropic обмеження. Амоді повідомив співробітникам, що Альтман і Міноборони «обманюють» суспільство, намагаючись створити враження, що їхні домовленості містять багато обмежень. Раніше чиновники Міноборони підтвердили, що Elon Musk’s xAI також працює на секретних серверах із моделями, і наразі Pentagon веде переговори з Google.
Anthropic застосовує тактику затягування та відкладання
Claude написав більшу частину коду для майбутніх моделей штучного інтелекту, що скоротило інтервал їхнього запуску з місяців до тижнів. Його швидкодія у виконанні окремих завдань значно перевищує людську, що викликає занепокоєння керівництва щодо можливого виходу AI з-під контролю.
Коли AI починає писати власну логіку еволюції, скільки ще часу залишилось людству? У зв’язку з посиленням конкуренції Anthropic нещодавно змінила свою політику: нові правила передбачають підвищення прозорості щодо безпеки штучного інтелекту, зокрема, розкриття результатів тестування власних моделей. Крім того, якщо керівництво вважає, що Anthropic перебуває у лідерах у галузі і це може спричинити катастрофічні наслідки, вони «відкладатимуть» подальший розвиток технологій.
Однак ця історія про етику штучного інтелекту ще не завершена.