A inteligência artificial está repleta de dilemas práticos e éticos, e agora eles estão voltando para o poleiro. Aqui estão sete perguntas inevitáveis sobre IA.
PorPeter Wayner
Escritor colaborador,InfoMundo |

- Escassez de recursos
- Ética da IA
- Desigualdade global do trabalho
- Loops de feedback ruim
- A lei
- Morte e destruição
- Grandes Expectativas
Mostre mais
Todos ficam maravilhados quando as borboletas da IA emergem de seus casulos. Grandes modelos de linguagem são preparados, aprendidos e hábeis em se comunicar em uma ampla variedade de idiomas e estilos. Os modelos de arte podem produzir praticamente qualquer coisa que possamos sonhar e explicar em palavras - quanto mais maluco, melhor. Os cientistas estão ensinando IAs a compor música, explorar o espaço e (para nossa preocupação) executar tarefas repetitivas tradicionalmente feitas por trabalhadores pagos.
Apesar de todos esses resultados surpreendentes, problemas sérios estão à espreita logo abaixo da superfície. Talvez ainda não tenhamos notado porque ainda estamos em um estado de admiração. No futuro, não teremos escolha a não ser lidar com os dilemas materiais e éticos levantados pela IA. Aqui estão sete questões que não seremos capazes de ignorar quando a maravilha começar a desaparecer.
Escassez de recursos
A maioria dos grandes modelos de IA depende de cálculos massivamente paralelos que podem ser acelerados por GPUs ou chips especializados conhecidos como TPUs. Eles também são frequentemente usados por mineradores de criptomoedas, participantes de videoconferências e jogadores de jogos. Todosquer o hardwaree nos últimos anos o custo disso disparou à medida que a demanda excedeu a oferta. Para piorar a situação, muitos estão usando a nuvem e, às vezes, a nuvem simplesmente não consegue se expandir rápido o suficiente. Construir modelos de IA em todo o seu potencial exigirá muito hardware e não será barato.
O hardware não é o único recurso escasso necessário para uma implantação de IA bem-sucedida. Grandes trabalhos de IA exigemmuita eletricidade, que nem todas as regiões podem fornecer. Entre conflitos geopolíticos e fontes renováveis inconstantes, simplesmente obter eletricidade suficiente a um preço previsível é um desafio. Alguns provedores de nuvem estão aumentando os preços em certas regiões apenas para compensar suas contas maiores, graças à turbulência geopolítica.
Ética da IA
Existem muitas questões e debates que os humanos sabem evitar em determinados contextos, como jantares de fim de ano ou no local de trabalho. As IAs, no entanto, precisam ser ensinadas a lidar com essas questões em todos os contextos. Alguns modelos de linguagem grandes são programados para desviar de perguntas carregadas ou simplesmente se recusar a respondê-las, mas alguns usuários simplesmente não permitem que um cachorro adormecido minta. Quando esse usuário percebe que a IA está se esquivando de uma pergunta complicada, comoaquele que invoca preconceito racial ou de gênero, eles procurarão imediatamente maneiras de passar por baixo dessas grades de proteção.
Viés nos dados e dados insuficientes sãoproblemas que podem ser corrigidos ao longo do tempo, mas enquanto isso, o potencial para danos e uso indevido é enorme. E, embora fazer com que a IA produza discurso de ódio já seja ruim o suficiente, a trama se complica consideravelmente quando começamos a usar a IA para explorar as implicações morais dedecisões da vida real.
Desigualdade global do trabalho
Muitos projetos de IA dependem do feedback humano para orientar seu aprendizado. Muitas vezes, um projeto de escala precisa de um grande volume de pessoas para construir o conjunto de treinamento e ajustar o comportamento do modelo conforme ele cresce. Para muitos projetos, o volume necessário só é economicamente viável se os instrutores foremsalários baixos pagos em países pobres. Há um profundo debate sobre o que é justo e justo, mas ninguém descobriu uma solução economicamente viável para projetos maiores. Assim como a indústria de pedras preciosas não gosta de pensar no trabalho duro e perigoso da mineração, a indústria de IA não tem uma solução simples para o custo da mão de obra.
Loops de feedback ruim
A desinformação na forma de notícias e críticas falsas já está conosco há algum tempo, sendo criada por qualquer motivo, da política ao lucro. No caso de revisões, os fornecedores criamavaliações positivas falsasde seus produtos e avaliações negativas falsas de produtos concorrentes. Algoritmos para bloquear atores mal-intencionados são surpreendentemente complexos e requerem manutenção considerável. Não existe almoço grátis, parece.
Mas agora imagine o que acontece quando as IAs começam a ser usadas para produzir desinformação. Por um lado, o volume de informações falsas aumentará exponencialmente. Por outro lado, há uma boa chance de outra IA pegá-lo e alimentá-lo de volta ao corpus de treinamento.Desinformação viraljá polui nossas redes sociais. Como os ciclos de feedback ruins amplificam e corrompem o conhecimento? Haverá conjuntos de treinamento cuidadosamente selecionados de textos antigos antes da singularidade?
A lei
As IAs aprendem tudo o que sabem copiando um enorme corpus de texto e imagens. Na maioria dos casos, os humanos que criaram esses dados nunca foram informados de que seu trabalho seria dobrado em um modelo de IA que um dia poderia valer bilhões de dólares. O que acontece quando esses humanos começam a perder seus empregos para a inteligência artificial? De repente, todos eles têm muito tempo paraadvogado sobre licenças, direitos autorais e plágio. Podemos brincar sobre apenas treinar uma IA na jurisprudência relevante, mas um juiz de IA que pode dar um veredicto em milissegundos é mais assustador do que um juiz humano que leva anos para avaliar as questões. Se contarmos com a humanidade e o sistema legal, pode levar décadas até termos um veredicto.
Aqui está outro cenário na mesma linha. Quando uma IA comete um erro sobre eventos históricos ou a cultura pop atual, pode ser ofensivo, mas ninguém fica diretamente ferido. Quando essa mesma IAdiz algo depreciativo sobre uma pessoa viva, pode realmente ser difamatório. É fácil imaginar uma IA juntando fragmentos de frases para dizer algo muito errado sobre uma pessoa viva. Então, digamos que essa pessoa tenha meios para contratar uma equipe de advogados para se vingar. A própria IA é culpada? Ou é a própria empresa? Se houver uma pilha de dinheiro em algum lugar, os advogados o encontrarão.
Morte e destruição
Até onde eu sei, não há exemplos óbvios de IAs malignas que se comportem como vilões em filmes de ficção científica. Sabe-se que carros autônomos e máquinas de fábrica cometem erros, mas até agora nenhuma malícia artificial parece estar envolvida. Um ser humano tolo tomando café da manhã ao volante enquanto envia mensagens de texto e dirige é de alguma forma mais aceitável (embora não menos potencialmente trágico) do que um carro autônomo que bate. Parece que ainda não sabemos como contabilizar a possibilidade de ferimentos graves ou morte por inteligência artificial.
E daí? Usuários inteligentes já começaram a descobrir como as IAs tendem a cometer erros. Uma IA pode se destacar em obter informações obscuras corretamente, mas mesmo tarefas simples como contar até cinco podem atrapalhar. Mas e se as falhas forem mais profundas do que meros erros de contagem? No mínimo, podemos concluir que alguns empregos não são destinados à IA – não importa o quanto desejemos o lucro.
Grandes Expectativas
Os humanos tendem a imaginar que os animais e IAs pensam exatamente como nós. Isso pode nos assustar porque outros humanos costumam ser decepcionantes ou francamente perigosos. O verdadeiro problema é que as IAs têm uma forma distintamente diferente de inteligência, que ainda precisamos entender. Como espécie, temos muito a aprender sobre os pontos fortes e fracos únicos da IA.
Enquanto isso, o campo da inteligência artificial é tãosensacionalistaeanimadopelo otimismo humano que nunca poderia corresponder aos nossos sonhos. Não é culpa dos cientistas que eles não possam controlar nossas expectativas; mesmo as corporações não são culpadas por capitalizar sobre eles. É nossa culpa deixar nossos corações e esperanças superarem a realidade. O campo está fadado a decepcionar, até porque estamos esperando muito.
Relacionado:
- Inteligência artificial
- Aprendizado de máquina
- Aprendizado Profundo
- Indústria de tecnologia
Direitos autorais © 2023 IDG Communications, Inc.
Como escolher uma plataforma de desenvolvimento low-code