Message de Gate News, 27 avril — Suite à des attaques récentes visant des dirigeants technologiques de premier plan, notamment la résidence à San Francisco de Sam Altman et le PDG d’UnitedHealthcare, les dirigeants de la Silicon Valley renforcent de manière significative les mesures de sécurité personnelles. La montée de la défiance envers l’IA, combinée à ces incidents très médiatisés, a poussé les fondateurs de la tech à réévaluer leurs dispositifs de sécurité privés, passant de la réticence passée à employer des gardes du corps à l’adoption de la protection globale comme pratique standard.
Les risques en matière de sécurité proviennent à la fois des protestations hors ligne et des menaces en ligne. Selon des professionnels de la sécurité, les réseaux sociaux peuvent concentrer rapidement le mécontentement public contre des personnes précises en l’espace de quelques jours, tandis que les photos, les calendriers et les informations de localisation partagés publiquement créent des vulnérabilités exploitables. Les dirigeants de la tech font face à des menaces allant de la protection personnelle et de la sécurité résidentielle à des évaluations des risques de déplacement et à la surveillance des menaces en ligne.
Les divulgations d’entreprise reflètent la tendance. D’après l’analyse d’Equilar des déclarations de procuration du S&P 500, 37,8 % des entreprises ont accordé des avantages liés à la sécurité à au moins certains dirigeants en 2025, contre 33,5 % en 2024. Parmi les entreprises offrant de tels avantages, les dépenses de sécurité médianes sont passées de 108 700 $ à 130 500 $. Le dépôt de procuration 2026 de Meta a révélé qu’en raison du profil très médiatisé de Mark Zuckerberg et de menaces de sécurité spécifiques, l’entreprise lui a fourni des dispositifs de sécurité complets, avec environ 8,50 millions de dollars consacrés en 2025 à la sécurité résidentielle et aux déplacements personnels, plus une allocation supplémentaire de sécurité avant impôts de $14 million. Les sociétés de sécurité privées adaptent elles aussi leur modèle de service, s’éloignant du garde du corps traditionnel en costume, portant une oreillette, au profit de personnels capables de s’intégrer dans des salles de réunion d’exécutifs, lors de dîners et dans des environnements familiaux.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Google DeepMind rejoint le K-Moonshot sud-coréen pour relever des défis scientifiques avec l’IA
Google DeepMind a conclu un partenariat avec la Corée du Sud afin de fournir l’infrastructure technique à l’initiative K-Moonshot du pays, un ambitieux programme national conçu pour résoudre les défis scientifiques les plus complexes du siècle grâce à l’IA.
Résumé
Google DeepMind s’associe avec Sout
CryptonewsIl y a 34m
Gate organise une table ronde Space sur le trading avec l’IA le 28 avril : explorer l’IA comme moteur du prochain cycle Web3
Message d’actualités Gate, 27 avril — Gate organisera une table ronde en direct sur Space consacrée au Trading avec l’IA le 28 avril à 20h, réunissant des experts du secteur pour explorer si l’intégration approfondie de l’IA dans les flux de travail de trading marque le véritable point de départ du prochain cycle Web3.
La discussion examinera A
GateNewsIl y a 37m
Mac Studio : tests en conditions réelles de modèles à grande échelle : attente pour M3 Ultra, solutions en cluster et M5 Ultra
En avril 2026, des modèles de niveau 1 兆 paramètre, tels que DeepSeek V4 Pro, Kimi K2.6, etc., ont été publiés les uns après les autres, rendant l’idée de « faire tourner un LLM open-source de pointe sur sa propre machine » une option viable. Pour les ingénieurs et les petites équipes qui ne veulent pas construire une station de travail H100, mais qui souhaitent disposer de capacités complètes d’inférence locale, \\Mac Studio M3 Ultra 256GB\\ est, à ce stade, la solution mono-machine la plus rentable, avec, en complément, un cluster via Thunderbolt 5 permettant d’aller jusqu’à des domaines de 1T paramètres. Cet article regroupe des données d’expérimentation sur l’exécution de modèles à grande échelle avec le M3 Ultra, des solutions de cluster, les avantages du framework MLX, ainsi que le calendrier prévu pour le M5 Ultra.
État actuel des spécifications du M3 Ultra : mémoire unifiée de 256GB, 819
ChainNewsAbmediaIl y a 39m
Musk poursuit OpenAI, Microsoft pour un changement de mission à but non lucratif
La sélection du jury doit commencer dans le cadre du procès de 2024 intenté par Elon Musk contre OpenAI, Sam Altman, Greg Brockman et Microsoft, les accusant d’avoir trahi la mission à but non lucratif d’OpenAI en créant une entité à but lucratif en 2019, selon Reuters. Musk réclame $150 billion de dollars US de dommages et intérêts pour OpenAI's
CryptoFrontierIl y a 41m
L’action d’Intel bondit de 110 % alors que la transition vers l’IA remodèle l’industrie technologique
Message de Gate News, 27 avril — L’action d’Intel a grimpé de 110 % cette année et a atteint un nouveau record historique vendredi, marquant un tournant important pour le fabricant de puces, 25 ans après son précédent sommet. La reprise reflète un basculement plus large du secteur technologique, où la transition vers l’IA est
GateNewsIl y a 52m
Ant Group lance Ling-2.6-1T : modèle à billion de paramètres optimisé pour l’exécution des tâches avec une efficacité élevée en jetons
Message de Gate News, 27 avril — Ant Group's inclusionAI a publié Ling-2.6-1T, un nouveau modèle phare d’instruction de l’ordre du billion de paramètres dans la série Ling. Contrairement aux modèles de raisonnement à longue chaîne, Ling-2.6-1T utilise un mécanisme « Fast-Thinking » conçu pour exécuter les tâches avec précision en consommant un nombre minimal de jetons
GateNewsIl y a 1h