top of page

É POSSÍVEL UMA PAUSA NA PESQUISA E DESENVOLVIMENTO DE INTELIGÊNCIA ARTIFICIAL?

  • Foto do escritor: Flávia Valéria
    Flávia Valéria
  • 3 de abr. de 2023
  • 4 min de leitura


Você concorda que a pesquisa e desenvolvimento de IA, para além do nível hoje do GPT 4, deve ser pausada pelo menos por 6 meses?


A última semana de março de 2023 foi sacudida pela divulgação da CARTA ABERTA formulada pelo Instituto FUTURE OF LIFE .


O debate sobre ética na pesquisa de inteligência artificial é extremamente urgente e necessário no atual desenvolvimento exponencial da IA, como já vem sendo alertado a vários anos por diversos pesquisadores do tema, mas sem sucesso, tanto pela ausência de iniciativa governamental como pela baixa participação e conhecimento sobre o tema da população em geral, que por isso não consegue mensurar os riscos envoltos no tema.


Além do necessário debate ético, surgem com o desenvolvimento da IA, questões relativas ao futuro do trabalho decorrente da automação da inteligência artificial, que já está desafiando os governos e sociedade, que precisa preparar os profissionais de hoje para essa readequação aos novos empregos e funções.


Aparentemente, o instituto centrou-se nesses pontos para lançar a carta aberta, fundamentando-a nos seguintes termos:

(...) a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais . Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, embora os últimos meses tenham visto laboratórios de IA travados em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.”

Nesses termos, levantou os seguintes questionamentos:


“Devemos deixar as máquinas inundarem nossos canais de informação com propaganda e inverdade?
Devemos automatizar todos os trabalhos, incluindo os satisfatórios?
Devemos desenvolver mentes não humanas que possam eventualmente superar em número, ser mais inteligentes, obsoletas e nos substituir?
Devemos arriscar a perda do controle de nossa civilização?”

Arrematando que: “Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos”. Sugerindo a criação de órgãos de fiscalização e controle e intervenção governamental.




Com a divulgação da Carta Aberta, o Center for AI and Digital Policy, um grupo de ética para questões tecnológicas apresentou uma reclamação, após a carta aberta que considerou de alto nível, argumentando que o GPT-4 viola as regras da FTC (Federal Trade Commission), em prejuízo aos consumidores.

Em seguida, foi a vez da autoridade de Proteção de dados da Itália (GARANTE) determinar, em 30 de março de 2023, a suspensão das atividades do ChatGPT no país, em razão de possíveis violações de privacidade, por ausência de base legal para recolher massivamente os dados dos usuários e ausência de filtro que verifique a idade dos usuários, e permita a utilização apenas a partir dos 13 anos.





A Unesco aproveitou essa onda para reforçar sua recomendação sobre a Ética da Inteligência Artificial, já expedida anos anteriores, para que 193 países integrantes da UNESCO apliquem imediatamente.

Apesar da pretensão de alcançar todos os laboratórios do mundo, certamente os laboratórios o eixo Ásia-Oriente, localizados em países com outras regras regulatórias e culturais, certamente não estarão disponíveis para “acatar” essa solicitação. Alguém conseguiria imaginar a China concordando com essa pausa?


Surgiria, assim, um outro problema: o Ocidente paralisando seu desenvolvimento, enquanto o eixo Ásia-Oriente seguindo a pleno vapor. Nem precisa ser futurista para saber o resultado dessa decisão.


Isso levanta um ponto interessante nessa questão Ocidente e eixo Ásia-Oriente. No ocidente, as empresas, em razão do livre mercado, desenvolvem-se autonomamente enquanto no eixo liderado pela Ásia (China) o desenvolvimento tecnológico está a serviço do Governo, e dos planos por ele traçados, mesmo as Bigtechs como Baidu, Alibaba e Tencent.


Importante analisar, nesse momento de desenvolvimento exponencial da IA, em termos de Futuros da Humanidade, se o desenvolvimento da tecnologia deve ficar a cargo de grandes empresas de tecnologia, as Bigtechs, dirigidas por seu CEO, nos mesmos moldes de não intervenção estatal na economia, que ocorre nos outros setores de atividade; ou, se o controle dos governos, invertendo a ótica dos direitos consagrados pelo Ocidente como a liberdade econômica, se faz necessário, a fim de garantir o atendimento de interesses gerais e não somente os fins econômicos da empresa e dos seus acionistas/investidores e inteligência artificial, com padrões regulatórios mais rígidos, nos moldes da exploração de energia nuclear, mineração, e outras com potencial lesivo coletivo.


É necessário mudanças nas regras do jogo no Ocidente em se tratando de empresas de desenvolvimento de Inteligência Artificial, adotando-se regulação rígida, como é feito no casos de exploração de energia nuclear.

Outro ponto necessário para observação é que o desenvolvimento alcançado pela Open AI em sistemas LLM não foi acompanhado pelas demais Bigtechs, como por exemplo o Google que tenta quase desesperadamente estabilizar o Bard, concorrente do ChatGPT, lançado no dia 21/03/23 apenas nos EUA e Reino Unido, impactando diretamente seus negócios e, portanto, os acionistas da empresa.


Por sua vez a Microsoft que adquiriu praticamente 49% das ações da OpenAI, já incorporou no seu sistema operacional o BING, com base nas funcionalidades do ChatGPT, e anunciou o COPILOT, agregando as funções do GPT4 aos seus aplicativos de Power Point, Excel, além de ter criado o Microsoft Designer ao estilo do aplicativo Canvas.

As questões éticas em torno do desenvolvimento da IA não sugiram agora. Então, por que somente após o salto dado pela OpenAI despertou-se a ponto de ser sugerido a nível público uma pausa no desenvolvimento da inteligência artificial? É uma preocupação ética em prol da humanidade ou uma tentativa para que as empresas se desenvolvam juntas, ou seja, uma penalização por quem se destacou nas pesquisas antes?





Flávia Valéria

Mestranda em Blockchain e Criptocurrencies pela University of Nicosia (Unic) pelo departamento Institute for the future.

Pós-graduanda em Neurociência, psicologia positiva e mindfulness pela PUC-PR

Pesquisadora em inovação, futuros, direito e cidadania digital.

Promotora de Justiça no Estado do Maranhão.

Coordenadora do Projeto de pesquisa da ESMP-MPMA MP Trends

Pós-graduada em Direitos Difusos, Coletivos e Gestão fiscal pela ESMP/MPMA.








Commentaires


bg rodape.png

Contato

E-mail:

Seguir:

  • Ícone do Facebook Branco

Receba nossas atualizações

Obrigado pelo envio!

Desenvolvido por DNA Criativo

bottom of page