Digital TimesDigital Times #03 – Regulação das IA’s

30/03/20230

        Elon Musk e um grupo de especialistas em inteligência artificial pediram, em carta aberta, que o mercado de tecnologia pause por seis meses o desenvolvimento de sistemas ainda mais poderosos que o recém-chegado GPT-4 da OpenAI. Conforme o documento, o avanço acelerado de sistemas de IA é um risco potencial para a humanidade. A ideia é que o mercado espere por protocolos de segurança para que mais projetos sejam desenvolvidos, implementados e auditados por especialistas.

A carta, emitida pelo Instituto Future of Life, também convocou desenvolvedores a trabalhar com governos e autoridades reguladoras. Segundo a Reuters, o documento incluiu assinaturas de pesquisadores da DeepMind, de propriedade da Alphabet, bem como Yoshua Bengio e Stuart Russell, cientistas de peso no campo da IA.

A preocupação dos especialistas vem logo após a Europol alertar para o uso criminoso da inteligência artificial, em especial a aplicada aos chatbots. De acordo com relatório da autoridade, há três áreas principais dentro do campo digital que esse tipo de tecnologia irá impulsionar, e não positivamente: golpes de phishing, desinformação e crimes cibernéticos.

Enquanto isso, a OpenAI, empresa co-fundada por Elon Musk, anunciou que um bug em sua plataforma de processamento de linguagem natural também vazou dados sensíveis de assinantes. Além disso, o ChatGPT-4, desenvolvido pela OpenAI, aponta 80 profissões que podem desaparecer com o avanço da IA.

Com as preocupações crescentes sobre o uso responsável da IA, o governo do Reino Unido apresentou propostas para uma estrutura regulatória “adaptável” em torno da IA. Enquanto isso, gigantes de tecnologia querem usar IA do ChatGPT para alavancar negócios na nuvem, levantando questões sobre ética e segurança na implementação de tecnologia de inteligência artificial.

Veja abaixo a carta aberta sobre IAs:

“Sistemas de IA com inteligência competitiva com a humana pode trazer profundos riscos à sociedade e à humanidade, como mostrado por extensa pesquisa e reconhecido por importantes laboratórios de IA. Como se afirma no amplamente apoiado Asilomar AI Principles, uma IA avançada poderia representar uma profunda mudança na história da vida na Terra, e deveria ser planejada e gerida com os correspondentes cuidados e recurso. Infelizmente, este nível de planejamento e gestão não está ocorrendo, mesmo que tenhamos visto, nos últimos meses, aos laboratórios de IA presos a uma corrida fora de controle para desenvolver e empregar cérebros digitais ainda mais poderosos que ninguém — nem mesmo seus criadores — pode compreender, predizer ou controlar razoavelmente.

Os sistemas de IA contemporâneos estão, agora, se tornando competitivos com os humanos em tarefas em geral, e devemos nos perguntar: deveríamos permitir que máquinas inundem nossos canais de informação com propaganda e inverdades? Deveríamos automatizar todos os trabalhos, inclusive os mais gratificantes? Deveríamos desenvolver mentes não-humanas que poderiam, eventualmente, nos superar em número e em inteligência, nos tornando obsoletos e nos substituindo? Deveríamos nos arriscar a perder o controle de nossa civilização? Essas decisões não devem ser delegadas para líderes do setor de tecnologia não-eleitos. Poderosos sistemas de IA deveriam ser desenvolvidos, somente se estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Esta confiança deve ser bem justificada e crescer com a magnitude dos efeitos potenciais de um sistema. A recente declaração da OpenAI sobre a inteligência artificial, em geral, afirma que “em certo ponto, pode ser importante contar com revisão independente, antes de iniciar o treinamento de futuros sistemas, e para os esforços mais avançados para estabelecer um limite para a taxa de crescimento da computação utilizada para criar novos modelos.” Nós concordamos. E estamos neste ponto agora.

Portanto, conclamamos todos os laboratórios de IA a suspender imediatamente por, pelo menos, 6 meses, o treinamento de sistemas de IA mais poderosos que o GPT-4. Esta pausa deveria ser pública e verificável, e incluir todos os atores-chave. Se tal pausa não puder ser implementada rapidamente, os governos deveriam vir a campo e instituir uma moratória.

Os laboratórios de IA e especialistas independentes deveriam usar essa pauta para, em conjunto, desenvolver e implementar um leque de protocolos de segurança compartilhados para o design e o desenvolvimento de IAs avançadas, que sejam rigorosamente auditados e supervisionados por especialistas externos e independentes. Esses protocolos deveriam assegurar que os sistemas que aderirem a eles são seguros, acima de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento de IAs em geral, mas simplesmente um passo atrás de uma perigosa corrida rumo a gradativos e imprevisíveis “modelos caixas-pretas” com capacidades emergentes.

A pesquisa e o desenvolvimento de IA deveria ser reorientada para tornar os atuais e poderosos sistemas, que representam seu estado-da-arte, mais acurados, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Em paralelo, os desenvolvedores de IA devem trabalhar em conjunto com os formuladores de políticas públicas para acelerar dramaticamente o desenvolvimento de sistemas robustos de governança das IAs. Isso deveria, no mínimo, incluir: novas e capacitadas autoridades regulatórias dedicadas à IA; monitoramento e rastreamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional; sistemas de proveniência e marca-d’água para auxiliar a distinguir o real do sintético e rastrear fissuras no modelo; um robusto ecossistema de auditoria e certificação; responsabilização por danos causados por IA; robustos fundos públicos para a pesquisa técnica de segurança de IA; e institutos bem financiados para lidar com as dramáticas disrupturas econômicas e políticas (especialmente à democracia) que a IA causará.

A humanidade pode usufruir de um futuro florescente com a IA. Ao sermos bem-sucedidos em criar poderosos sistemas de IA, podemos agora usufruir de um “verão da IA”, no qual colhemos os frutos, projetamos os sistemas para o claro benefício de todos, e damos à sociedade uma chance de se adaptar. A sociedade já suspendeu outras tecnologias com efeitos potencialmente catastróficos. Podemos fazer o mesmo aqui. Usufruiremos um longo verão da IA e não correremos despreparados para um outono decadente.”

Leave a Reply

Your email address will not be published. Required fields are marked *

Abrir bate-papo
1
Escanear o código
Olá 👋
Posso te ajudar?