Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Anthropic подає позов до уряду США через чорний список ШІ, пов’язаний із суперечкою щодо військового використання
Розробник штучного інтелекту Anthropic подав позов проти кількох урядових агентств США, звинувативши федеральний уряд у незаконному внесенні його технології до чорного списку після того, як компанія відмовилася дозволити певне військове використання своїх систем штучного інтелекту.
Коротко про ситуацію
Позов, поданий у Північному окружному суді Каліфорнії, вимагає декларативних та заборонних заходів проти широкого кола федеральних органів і посадовців, зокрема Міністерств війни, фінансів, закордонних справ і внутрішньої безпеки, а також Федеральної резервної системи і Комісії з цінних паперів і бірж.
Anthropic стверджує, що уряд вчинив у відповідь на відмову компанії дозволити використання її сімейства моделей AI, відомих як Claude, для смертельної автономної війни або масового спостереження за американцями.
Згідно з позовом, напруженість зросла після того, як урядові посадовці вимагали від Anthropic зняти ці обмеження і дозволити Міністерству війни використовувати технологію «з урахуванням усіх законних цілей». Компанія заявила, що погодилася на розширення співпраці, але зберегла два ключові обмеження безпеки.
Конфлікт завершився наказом Дональда Трампа, який наказав федеральним агентствам негайно припинити використання технології Anthropic, а також рішенням Міністерства війни позначити компанію як «ризик для національної безпеки у ланцюгу постачань».
Це позначення заборонило військовим підрядникам і партнерам вести бізнес з Anthropic, фактично виключивши компанію з оборонного ланцюга постачань. Пізніше кілька агентств припинили контракти або наказали співробітникам припинити використання систем AI компанії.
Anthropic стверджує, що ці дії порушують Першу поправку, Закон про адміністративні процедури та конституційні гарантії належної процедури. Компанія вважає, що ці заходи були вжиті у відповідь на її занепокоєння щодо безпеки та надійності систем AI, що використовуються у автономній зброї та масовому спостереженні.
У позові зазначається, що дії уряду вже призвели до скасування контрактів і можуть поставити під загрозу сотні мільйонів доларів у майбутньому бізнесу, а також пошкодити репутацію компанії та її ділові зв’язки.
Anthropic просить суд визнати дії уряду незаконними та заборонити їх виконання під час розгляду справи.