Генеральний директор Google DeepMind закликає до дослідження небезпек штучного інтелекту

(MENAFN) Головний виконавчий директор Google DeepMind закликав прискорити дослідження небезпек, які несе штучний інтелект, попереджаючи, що необхідно посилити заходи безпеки через зростаючі ризики все більш автономних систем.

Деміс Хассабіс заявив, що галузь потребує «розумного регулювання» для «реальних ризиків», спричинених технологією, повідомляє медіа у п’ятницю, його слова були висловлені під час ексклюзивного інтерв’ю на Саміті впливу ШІ в Нью-Делі, що завершувався під час Саміту впливу ШІ в Індії 2026.

Хассабіс визначив дві головні загрози: експлуатацію ШІ зловмисниками та можливість того, що люди поступово втратять контроль над системами у міру їхнього розширення. Він наголосив, що міцні захисні заходи є не опцією, а необхідністю.

Коли його запитали, чи розглядає він можливість сповільнити темпи розвитку компанії, щоб дати фахівцям більше часу для вирішення цих викликів, він натякнув, що Google DeepMind може відігравати роль — але попередив, що це лиш один учасник у набагато ширшому, конкурентному глобальному ландшафті.

Хассабіс також визнав, що регулятори борються з швидкістю прогресу ШІ — проблему, яку підтримав і генеральний директор OpenAI Сэм Альтман, який також закликав до швидких регуляторних дій на саміті. Прем’єр-міністр Індії Нарендра Моді закликав до міжнародної співпраці для забезпечення широких переваг від технології.

Однак США висловили розбіжність. Лідер делегації Майкл Креціос чітко заявив, що адміністрація Трампа твердо проти будь-яких рамкових документів для глобального управління ШІ, що свідчить про поглиблення розколу між Вашингтоном і багатосторонніми зусиллями щодо стримування технології.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити