Um grupo de renomados pesquisadores, engenheiros e CEOs de IA emitiu um novo alerta sobre a ameaça existencial que acreditam que a IA representa para a humanidade. A declaração de 22 palavras (na versão em inglês, 25 em português), encurtada para torná-la o mais aceitável possível, diz o seguinte: "Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala societal, como pandemias e guerra nuclear". Esta declaração, publicada por uma organização sem fins lucrativos de San Francisco, o Centro para Segurança em IA, foi co-assinada por figuras como o CEO do Google DeepMind, Demis Hassabis, e o CEO da OpenAI, Sam Altman, bem como Geoffrey Hinton e Yoshua Bengio - dois dos três pesquisadores de IA que ganharam o Prêmio Turing de 2018 (às vezes referido como o "Nobel da computação") por seu trabalho em IA.
A declaração é a mais recente intervenção de alto perfil no complicado e controverso debate sobre a segurança da IA. No início deste ano, uma carta aberta assinada por algumas das mesmas pessoas que apoiam o alerta de 22 palavras pediu uma "pausa" de seis meses no desenvolvimento da IA. A carta foi criticada em vários níveis. Alguns especialistas acharam que ela superestimava o risco representado pela IA, enquanto outros concordavam com o risco, mas não com o remédio sugerido pela carta.
Dan Hendrycks, diretor executivo do Centro para Segurança em IA, disse ao The New York Times que a brevidade da declaração de hoje - que não sugere nenhuma maneira potencial de mitigar a ameaça representada pela IA - foi feita para evitar tal desacordo. "Não queríamos empurrar um cardápio muito grande de 30 possíveis intervenções", disse Hendrycks. "Quando isso acontece, dilui a mensagem."
Hendrycks descreveu a mensagem como um "coming-out" para figuras da indústria preocupadas com o risco da IA. "Há um equívoco muito comum, mesmo na comunidade de IA, de que existem apenas um punhado de pessimistas", disse Hendrycks ao Times. "Mas, na verdade, muitas pessoas expressariam preocupações sobre essas coisas em particular."
Os contornos amplos deste debate são familiares, mas os detalhes muitas vezes intermináveis, baseados em cenários hipotéticos em que os sistemas de IA aumentam rapidamente em capacidades e não funcionam mais de forma segura. Muitos especialistas apontam para melhorias rápidas em sistemas como modelos de linguagem de grande porte como evidência de ganhos futuros projetados em inteligência. Eles dizem que, uma vez que os sistemas de IA atingem um certo nível de sofisticação, pode se tornar impossível controlar suas ações. Outros duvidam dessas previsões. Eles apontam para a incapacidade dos sistemas de IA de lidar com tarefas relativamente mundanas, como, por exemplo, dirigir um carro. Apesar de anos de esforço e bilhões de investimento nesta área de pesquisa, os carros totalmente autônomos ainda estão longe de se tornarem uma realidade.
Enquanto isso, tanto os defensores quanto os céticos do risco da IA concordam que, mesmo sem melhorias em suas capacidades, os sistemas de IA apresentam uma série de ameaças no presente - desde o uso que permite a vigilância em massa, até a alimentação de algoritmos de "policiamento preditivo" defeituosos, e facilitando a criação de desinformação e desinformação.
Os reguladores do Reino Unido deram um golpe no gigantesco negócio de aquisição de 68,7 bilhões de dólares da Activision Blizzard pela Microsoft. A Microsoft agora terá que lutar para manter o negócio vivo, com uma decisão chave da UE nas próximas semanas.