Riscos decorrentes do desenvolvimento da IA

250
robo desenvolvido por IA

Como proteger as pessoas, os investimentos e a liderança de nossas empresas? Este será o desafio comum dos próximos anos: identificar um sistema global de responsabilidades compartilhadas.

O secretário de Estado norte-americano, Antony Blinken, ao discursar, em 31 de maio, no Conselho de Comércio e Tecnologia (TTC) UE-EUA, reconheceu um papel fundamental “para os inovadores e investidores que orientam o processo [de inovação tecnológica]”.

Os governos devem “facilitar, catalisar, às vezes, apenas deixar espaço. O que importa é que os governos protejam os padrões que estabelecemos para nós mesmos e que a sociedade deseja e exige. Isso pressupõe um árduo exercício de equilíbrio.” Os inovadores inovam, os governos facilitam e reforçam os padrões éticos e de segurança.

Duas semanas antes, o chefe de uma empresa que crescia rapidamente no campo da inteligência artificial (IA) havia pedido ao seu governo que limitasse suas atividades. Em 16 de maio, Sam Altman, chefe da OpenAI, pediu ao Senado dos EUA uma gestão cuidadosa em relação aos riscos decorrentes do desenvolvimento da IA. O próprio Altman e mais de 300 outros especialistas assinaram o apelo, relançado pelo Center for AI Safety, em 30 de maio, que chega a temer “o risco de extinção” da raça humana, da mesma forma que as pandemias e a guerra nuclear.

Espaço Publicitáriocnseg
Ao mesmo tempo, alertas, previsões ameaçadoras e medos generalizados se multiplicaram na mídia em todo o mundo, sendo o primeiro resultado uma campanha de comunicação global que acendeu expectativas de uma transformação histórica. A primeira consequência: centenas de milhões de pessoas em todo o mundo já experimentaram e muitas usam regularmente o ChatGPT e tantas outras plataformas, sobre as quais estamos nos aprofundando. Eles escrevem discursos, preparam apresentações, adicionam funções aos navegadores tradicionais para tornar a navegação mais eficiente.

Entre os grandes players globais, a União Europeia foi a primeira a tomar a iniciativa de uma legislação-quadro, o AI Act, aprovado pelo Parlamento Europeu em 14 de junho e com versão final prevista para o final do ano. Sem surpresa, o sistema político e social europeu é, por tradição, aquele em que a inovação e a redução de riscos, por parte do poder público, são consideradas uma combinação essencial.

Por seu lado, os EUA adquiriram uma vantagem competitiva considerável ao longo dos anos. O governo federal dos EUA atribuiu a si mesmo um papel de liderança no desenvolvimento da IA, estimulando, por um lado, as empresas a investirem de acordo com seus próprios critérios éticos e padrões existentes e, por outro lado, a máquina pública para adquirir e desenvolver serviços inovadores.

Quais são as forças em jogo hoje em uma indústria onde o desafio pela liderança tenha apenas começado? De acordo com o AI Index Report 2023, da Universidade de Stanford, em 2022, o setor privado nos Estados Unidos da América investiu mais de 47 bilhões de dólares em IA, uma queda acentuada em relação aos 72 bilhões de 2021, mas bem abaixo dos concorrentes. De fato, no mesmo ano, os particulares investiram cerca de 13 bilhões na China, 7 bilhões na UE, 4 bilhões no Reino Unido e 3 bilhões em Israel. Também em 2022, 542 novas empresas focadas em IA foram criadas nos EUA, 160 na China, 99 no Reino Unido e 44 na França.

A diferença entre os EUA e o resto do mundo, acumulada na década de 2013-22, foi ainda maior. Nos EUA, os investimentos privados somaram quase US$ 249 bilhões de dólares, para um total de 4.643 novas empresas. Na China, foram US$ 95 bilhões com 1.337 startups. No Reino Unido, US$ 18 bilhões e 630 novas empresas. Na Alemanha e na França, foram US$ 7 bilhões de investimentos para cada país, com um total de 583 startups.

Investimentos de grande porte e a percepção de um potencial disruptivo, não só no mercado de trabalho, mas em todos os sistemas produtivos, têm enfatizado uma crescente percepção de riscos. Essa percepção também se reflete no crescimento de processos judiciais motivados pelo uso de IA, que nos EUA foram 17 em 2016 e 110 no ano passado.

Até agora, a gestão de riscos nos EUA e na Europa tem sido feita com abordagens diferentes, embora na presença de alguns princípios básicos compartilhados. Com o AI Act, a União Europeia introduzirá regras sobre qualidade de dados, transparência, supervisão e responsabilidade humana. No cerne da legislação estará a introdução de um sistema de classificação dos níveis de risco para a saúde, segurança e direitos fundamentais das pessoas, que são: Inaceitável, Elevado, Limitado e Mínimo.

Edoardo Pacelli é jornalista, ex-diretor de pesquisa do CNR (Itália), editor da revista Italiamiga e vice-presidente do Ideus.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui