Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
IA na Europa: O que a Lei de IA Pode Significar
Foto de Maico Amorim no Unsplash
A Lei de IA ainda está apenas em projeto, mas investidores e empresários na União Europeia já estão nervosos com os possíveis resultados.
Será que ela impedirá a União Europeia de ser um concorrente valioso no cenário global?
Segundo reguladores, não é o caso. Mas vamos ver o que está acontecendo.
A Lei de IA e Avaliação de Risco
A Lei de IA divide os riscos apresentados pela inteligência artificial em diferentes categorias, mas antes disso, ela restringe a definição de inteligência artificial para incluir apenas sistemas baseados em aprendizagem de máquina e lógica.
Isso não serve apenas para diferenciar sistemas de IA de softwares mais simples, mas também ajuda a entender por que a UE quer categorizar o risco.
Os diferentes usos de IA são classificados em risco inaceitável, alto risco e risco baixo ou mínimo. As práticas que se enquadram na categoria de risco inaceitável são consideradas proibidas.
Essas práticas incluem:
Existem alguns casos de uso, considerados semelhantes a algumas práticas incluídas nas atividades proibidas, que se enquadram na categoria de práticas de alto risco.
Incluem-se sistemas usados para recrutamento de trabalhadores ou para avaliar e analisar a solvência de pessoas (o que pode ser perigoso para fintechs). Nesses casos, todas as empresas que criam ou usam esse tipo de sistema devem produzir relatórios detalhados explicando como o sistema funciona e as medidas tomadas para evitar riscos às pessoas, além de serem o mais transparentes possível.
Tudo parece claro e correto, mas há alguns problemas que os reguladores devem abordar.
A Lei parece demasiado genérica
Um dos aspectos que mais preocupa empresários e investidores é a falta de atenção a setores específicos de IA.
Por exemplo, aquelas empresas que produzem e usam sistemas de IA para fins gerais podem ser consideradas como aquelas que utilizam inteligência artificial para casos de uso de alto risco.
Isso significa que elas devem produzir relatórios detalhados, o que exige tempo e dinheiro. Como as PME não são exceção e representam a maior parte das economias europeias, podem tornar-se menos competitivas com o tempo.
E é precisamente a diferença entre empresas de IA dos EUA e da Europa que levanta grandes preocupações: na Europa, não há grandes empresas de IA como nos EUA, pois o ambiente de IA na Europa é principalmente criado por PME e startups.
Segundo uma pesquisa conduzida pela appliedAI, a maioria dos investidores evitaria investir em startups rotuladas como “alto risco”, justamente devido às complexidades envolvidas nessa classificação.
ChatGPT mudou os planos da UE
Os reguladores da UE deveriam ter encerrado o documento em 19 de abril, mas a discussão sobre as diferentes definições de sistemas de IA e seus casos de uso atrasou a entrega do rascunho final.
Além disso, empresas de tecnologia mostraram que nem todas concordam com a versão atual do documento.
O ponto que mais causou atrasos foi a diferenciação entre modelos de base e IA de propósito geral.
Um exemplo de modelos de base de IA é o ChatGPT da OpenAI: esses sistemas são treinados usando grandes quantidades de dados e podem gerar qualquer tipo de saída.
IA de propósito geral inclui sistemas que podem ser adaptados a diferentes casos de uso e setores.
Os reguladores da UE querem regulamentar estritamente os modelos de base, pois eles podem apresentar mais riscos e afetar negativamente a vida das pessoas.
Como os EUA e a China estão regulando a IA
Se olharmos para como os reguladores da UE estão tratando a IA, há algo que se destaca: parece que os reguladores estão menos dispostos a cooperar.
Nos EUA, por exemplo, a administração Biden buscou comentários públicos sobre a segurança de sistemas como o ChatGPT, antes de elaborar um possível quadro regulatório.
Na China, o governo regula a IA e a coleta de dados há anos, e sua principal preocupação continua sendo a estabilidade social.
Até agora, o país que parece estar bem posicionado na regulação de IA é o Reino Unido, que adotou uma abordagem “leve” — mas não é segredo que o Reino Unido quer se tornar um líder na adoção de IA e fintech.
Fintech e a Lei de IA
Quando se trata de empresas e startups que oferecem serviços financeiros, a situação é ainda mais complicada.
De fato, se a Lei permanecer na versão atual, as fintechs precisarão não apenas estar vinculadas às regulamentações financeiras atuais, mas também a esse novo quadro regulatório.
O fato de a avaliação de solvência poder ser considerada um caso de uso de alto risco é apenas um exemplo do peso que as fintechs terão que carregar, impedindo-as de serem tão flexíveis quanto até agora, para captar investimentos e manter a competitividade.
Conclusão
Como apontou Peter Sarlin, CEO da Silo AI, o problema não é a regulamentação, mas a má regulamentação.
Ser demasiado genérico pode prejudicar a inovação e todas as empresas envolvidas na produção, distribuição e uso de produtos e serviços baseados em IA.
Se os investidores da UE ficarem preocupados com os riscos potenciais de um rótulo que classifica uma startup ou empresa como “alto risco”, o ambiente de IA na União Europeia pode ser negativamente afetado, enquanto os EUA buscam comentários públicos para aprimorar sua tecnologia e a China já tem uma opinião clara sobre como regular a inteligência artificial.
Segundo Robin Röhm, cofundador da Apheris, um dos cenários possíveis é que startups se mudem para os EUA — um país que talvez tenha muito a perder no que diz respeito a blockchain e criptomoedas, mas que pode vencer a corrida pela IA.