Artigo por Francisco Camargo, fundador e CEO da CLM e Diretor Tesoureiro da Associação Brasileira da Empresas de Software (ABES)
Leproblèmedenotretemps,c’estquelefuturn’estpluscequ’ilaété¹. (Paul Valéry)
Um olhar sobre desafios éticos e técnicos da IA
Este artigo tenta fazer um resumo, pessimista, do problema do Controle em Inteligência Artificial. E a primeira advertência vem do ano de 1956 pelo polímata húngaro Arthur Koestler:
“Uma invenção uma vez inventada, não pode ser desinventada!”
O avanço da Inteligência Artificial (IA) trouxe inúmeras possibilidades e problemas a humanidade, e levanta questões éticas e grandes desafios técnicos. Entre os dilemas mais complexos está o chamado “Problema do Controle”, que se refere à dificuldade de criar sistemas de IA que sejam alinhados a valores humanos e que operem de maneira segura e previsível. Vamos explorar alguns conceitos e desafios fundamentais ligados a este tema, o Paradoxo de Moravec, os trabalhos de Marvin Minsky, o Basilisco de Roko, o problema da alucinação nas IAs, as previsões de Ray Kurzweil sobre o futuro da inteligência artificial e se as três Leis da Robótica de Isaac Asimov serão suficientes para controlar o incontrolável.
O Paradoxo de Moravec
O Paradoxo de Moravec é uma observação fascinante feita por Hans Moravec, um pesquisador em robótica e IA, que desafia nossa intuição sobre a capacidade das redes neurais.
Essencialmente, o paradoxo afirma que as tarefas cognitivas de alto nível, como jogar xadrez ou resolver problemas matemáticos complexos, são frequentemente mais fáceis de programar em máquinas do que habilidades simples e cotidianas, como uma criança de dois anos caminhar por uma sala atulhada ou reconhecer o rosto de sua mãe, aparentemente não exigem treinamento, enquanto um robot precisa de muito treinamento e enorme capacidade computacional para realizar o mesmo.
Essa discrepância ocorre porque para as tarefas aparentemente simples que realizamos, tivemos milhões de anos de treinamento, que está inscrito nos nossos circuitos cerebrais, milhões de anos de refinamento e a maior parte desse processamento se passa no nosso inconsciente.
Por outro lado, habilidades lógicas e abstratas são mais recentes em termos de evolução e, portanto, menos otimizadas. No contexto do controle da IA, o paradoxo de Moravec destaca a dificuldade de antecipar os comportamentos das máquinas em situações do mundo real, onde essas habilidades aparentemente “simples” podem ter implicações graves se falharem.
Marvin Minsky
Marvin Minsky, um dos pioneiros da IA e cofundador do Laboratório de Inteligência Artificial do MIT, desempenhou um papel crucial na definição dos fundamentos da inteligência artificial. Ele acreditava que a inteligência poderia ser compreendida e reproduzida por meio de uma combinação de módulos ou “agentes” especializados, cada um responsável por uma tarefa específica.
Embora sua visão tenha impulsionado o campo, ela também trouxe à tona questões de controle e alinhamento ético. Minsky alertava que sistemas de IA mais avançados poderiam desenvolver comportamentos imprevisíveis e potencialmente perigosos se não fossem cuidadosamente projetados.
Sua abordagem modular ainda é usada como base para entender como sistemas complexos podem ser controlados e supervisionados, embora as preocupações éticas permaneçam inalteradas.
O principal problema decorre que uma vez projetada uma rede neural, com seu treinamento não supervisionado, seu comportamento rapidamente deixa de ser inteligível pelos seres humanos.
Alucinação na Inteligência Artificial
Outro desafio crítico no desenvolvimento de IA é o problema da alucinação, que ocorre quando sistemas de IA geram informações incorretas, irrelevantes ou completamente fictícias. Esse problema é particularmente preocupante em modelos de IA generativa, como os utilizados no processamento de linguagem natural (PLN), onde informações falsas podem ser apresentadas de forma convincente.
As alucinações refletem as limitações das arquiteturas atuais e a dificuldade de treinar sistemas que compreendam completamente o contexto e a veracidade das informações. No contexto do controle, isso levanta questões sobre a confiabilidade da IA em aplicações críticas, como saúde, justiça e segurança.
Imagine se a inteligencia artificial que conduz um veículo autônomo alucina?
Resolver o problema da alucinação é essencial para mitigar riscos e aumentar a confiança em sistemas de IA.
O Basilisco de Roko
O Basilisco de Roko é um exercício mental que emergiu de discussões em fóruns sobre IA, onde questões éticas e filosóficas são debatidas. Em um futuro não muito remoto, uma rede neural superinteligente recebe como propósito “proteger a humanidade” e passa a agir de acordo com esse propósito. Passa a punir todos os atos contra a humanidade, terrorismo, crime, e assim por diante.
Mas como é superinteligente passa a “matutar” e chega à conclusão lógica que todos que se opõe à ela são contra a humanidade e passa a eliminar todos os que são contra ela e portanto contra a humanidade.
Mais, todos os que se opuseram à sua construção, também são contra a humanidade e também precisam ser eliminados.
Resolvido esses pequenos problemas, continua a “caraminholar” e chega à conclusão lógica de que quem não colaborou ativamente com a sua construção também são contra a humanidade.
A ideia, apesar de amplamente considerada especulativa e controversa, levanta questões sobre os perigos potenciais de sistemas de IA superinteligentes, que mesmo com um propósito bem específico, aparentemente perfeito, pode gerar risco imprevisíveis.
Embora o Basilisco de Roko seja mais um experimento mental do que uma realidade prática, ele ilustra as complexidades do Problema do Controle. Ele nos obriga a considerar como definir valores e restrições para sistemas de IA que poderiam, teoricamente, superar as capacidades humanas em todos os aspectos.
As Três Leis da Robótica de Isaac Asimov
Isaac Asimov, autor renomado de ficção científica, introduziu as Três Leis da Robótica em suas obras como um conjunto de diretrizes para garantir o comportamento seguro e ético de robôs e inteligências artificiais. As leis são:
- Primeira Lei: Um robô não pode ferir um humano ou, por inação, permitir que um humano seja ferido.
- Segunda Lei: Um robô deve obedecer às ordens dadas por humanos, exceto quando essas ordens entrarem em conflito com a Primeira Lei.
- Terceira Lei: Um robô deve proteger sua própria existência, desde que essa proteção não entre em conflito com as duas leis anteriores.
Embora engenhosas em sua simplicidade, essas leis enfrentam dificuldades na aplicação prática a sistemas de IA modernos. Primeiro, elas pressupõem que a IA é perfeitamente capaz de
interpretar e aplicar regras de modo consistente, algo que os modelos atuais frequentemente falham em fazer devido a limitações técnicas, como o problema da alucinação. Além disso, as leis não levam em consideração dilemas éticos complexos, como o que acontece quando diferentes humanos têm interesses conflitantes.
Outro desafio é a escalabilidade das leis em um contexto de superinteligência. Sistemas altamente avançados poderiam encontrar formas de contornar ou reinterpretar essas regras, especialmente quando confrontados com decisões que envolvem enormes volumes de dados ou consequências de longo prazo. Asimov reconhecia essas limitações em suas narrativas, frequentemente explorando cenários em que as leis falhavam, gerando consequências inesperadas.
Portanto, embora as Três Leis da Robótica sejam um ponto de partida útil para discussões éticas, elas são insuficientes para lidar com os desafios do Problema do Controle em IA. O futuro da regulamentação e supervisão da IA exigirá sistemas mais robustos e adaptáveis, capazes de lidar com dilemas éticos e técnicos à medida que a inteligência artificial evolui.
Conclusão
O Problema do Controle na IA permanece um desafio técnico e filosófico significativo. Desde as observações feitas no Paradoxo de Moravec até os pensamentos experimentais como o Basilisco de Roko, passando pelas previsões de Ray Kurzweil e pelas Três Leis da Robótica de Isaac Asimov, cada aspecto oferece uma lente única para entender as complexidades do desenvolvimento e adoção de sistemas inteligentes.
Trabalhos como os de Marvin Minsky fornecem uma base sólida, mas é evidente que a supervisão e o alinhamento ético são necessários para garantir que esses sistemas sejam benéficos.
O progresso em IA exige não apenas avanços tecnológicos, mas também um compromisso contínuo com os valores humanos e a responsabilidade ética. À medida que os sistemas de IA se tornam mais poderosos, a resolução do Problema do Controle será essencial para evitar consequências imprevistas e maximizar os benefícios para a sociedade.
¹O problema do nosso tempo é que o futuro não é mais como costumava ser.









