Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Anthropic poursuit le gouvernement américain pour une liste noire de l'IA liée à un litige sur l'utilisation militaire
Le développeur d’intelligence artificielle Anthropic a déposé une plainte contre plusieurs agences gouvernementales américaines, accusant le gouvernement fédéral d’avoir illégalement inscrit sa technologie sur une liste noire après que l’entreprise a refusé d’autoriser certaines utilisations militaires de ses systèmes d’IA.
Résumé
La plainte, déposée devant le tribunal de district du Nord de la Californie, demande une déclaration et une injonction contre un large groupe d’entités et de responsables fédéraux, notamment les départements de la Guerre, du Trésor, d’État et de la Sécurité intérieure, ainsi que la Réserve fédérale et la Securities and Exchange Commission.
Anthropic affirme que le gouvernement a réagi en représailles après que l’entreprise a refusé de permettre à sa famille de modèles d’IA, connue sous le nom de Claude, d’être utilisée pour la guerre autonome létale ou la surveillance de masse des Américains.
Selon la plainte, les tensions ont augmenté après que des responsables gouvernementaux ont exigé qu’Anthropic supprime ces restrictions et permette au Département de la Guerre de faire « toute utilisation légale » de la technologie. L’entreprise a déclaré qu’elle était prête à élargir sa coopération mais a maintenu ses deux principales limitations de sécurité.
Le différend a culminé avec une directive de Donald Trump, ordonnant aux agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic, suivie d’une décision du Département de la Guerre de qualifier l’entreprise de « Risque pour la sécurité nationale dans la chaîne d’approvisionnement ».
Cette désignation interdit aux contractants militaires et partenaires de faire affaire avec Anthropic, coupant ainsi l’entreprise de la chaîne d’approvisionnement en défense. Plusieurs agences ont par la suite suspendu des contrats ou demandé à leurs employés de cesser d’utiliser les systèmes d’IA de l’entreprise.
Anthropic soutient que ces actions violent le Premier Amendement, la loi sur la procédure administrative et les protections constitutionnelles du droit à un procès équitable. La société affirme que ces mesures ont été prises en représailles pour avoir exprimé des préoccupations concernant la sécurité et la fiabilité des systèmes d’IA utilisés dans les armes autonomes et la surveillance de masse.
La plainte indique que les actions du gouvernement ont déjà conduit à l’annulation de contrats et pourraient mettre en danger des centaines de millions de dollars d’affaires à court terme, tout en nuisant à la réputation de l’entreprise et à ses relations commerciales.
Anthropic demande au tribunal de déclarer que les actions du gouvernement sont illégales et de suspendre l’application des directives pendant que le litige est en cours.