Nos últimos 2 meses, eu estive lendo o livro Eu, Robô de Isaac Asimov. Este livro é um clássico da ficção científica, tendo sido lançado em Dezembro de 1950. É um livro em que o autor expõe pontos de vista não só sobre inteligência artificial (IA) e robótica, mas também sobre viagens interestelares (e intergaláticas) e como ele imaginava nossa sociedade no futuro. Nessa resenha, mantenho o foco apenas nas partes de IA e robótica. O texto pode conter spoilers do livro e do filme, mas se você não se importa, confira!

A visão moderna de Isaac Asimov

Isaac Asimov
Figura 1 – Isaac Asimov

Isaac Asimov (Figura 1) foi um escritor e bioquímico que nasceu na Rússia e se naturalizou como norte americano. Viveu entre 1919 e 1992. Durante esse período, escreveu livros de ficção científica e divulgação científica. É considerado um dos 3 grandes escritores da ficção científica ao lado de Robert A. Heinlein e Arthur C. Clarke. Eu, Robô é um de seus principais livros e tema deste post.

Se considerarmos a data de nascimento das primeiras linguagens de programação, Plankalkül e o sistema de codificação do ENIAC, podemos verificar que elas são de 1943. Mas se considerarmos apenas linguagens que hoje ainda são usadas ou frequentemente estudadas, surgem algumas que vieram depois desse livro como: Fortran (1957), Lisp (1958) e Cobol (1959).

Onde eu quero chegar com isso? Antes de uma adoção maior das linguagens de programação e computadores, Isaac Asimov já acreditava na ideia de robôs programados, com base em regras, fundamentos matemáticos, cérebros de um outro tipo de matéria e muito mais. Dessa forma, vejo que ele não só se inspirava em algumas tecnologias que começavam a surgir como também influenciou muitos que vieram depois dele a alcançar ideias apresentadas em suas obras de ficção científica.

As 3 Leis da Robótica

Neste livro, Isaac Asimov apresenta um conjunto de regras que todos os robôs devem seguir para que a humanidade não venha a correr riscos com a existência deles. Esse conjunto de regras é definido pelo autor como As 3 leis da robótica, que são as seguintes:

  1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano venha a ser ferido.
  2. Um robô deve obedecer às ordens dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
  3. Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou com a Segunda Lei.

Observe que apesar de definidas em alto nível, essas regras foram criadas para impedir que os robôs venham a fazer mal para os seres humanos, que nos obedeçam e que se conservem, já que são caros. Desde aquela época, já se tinha medo do que os robôs podem causar. Afinal, máquinas não possuem algumas das restrições que os seres humanos possuem. Além disso, máquinas tem um comportamento altamente dedutivo. Logo, em algum momento elas poderiam concluir que são superiores a nós, seres humanos.

Testes de Robôs em Produção

Outro aspecto interessante do livro é que naquela época Asimov já imaginava uns testes em produção (=D). O que eu quero dizer com isso? Personagens como Drª Susan Calvin, Gregory Powell e Mike Donovan são os maiores exemplos de cobaias para testar robôs no decorrer do livro. E o engraçado é que sempre os testes ocorrem em situações reais, não no laboratório de desenvolvimento.

Para realizar testes, eles usam abordagens lógicas e psicológicas para identificar problemas nos robôs. Por exemplo: O robô se comportou de forma atípica. Por quê? Geralmente as análises que os personagens fazem levam a alguma explicação baseada nas 3 leis descritas na seção anterior. Com o passar dos capítulos, isso soa um pouco repetitivo, mas ainda há momentos em que surpreende. E atualmente, quando lidamos com agentes físicos (robôs) ou virtuais (programas de simulação de IA), estamos sempre tentando compreender o funcionamento com base em suas “leis” (i.e., implementação, regras no código).

Outro cenário interessante é o de travamento. No livro, alguns robôs chegam a “travar” quando percebem que se fizerem algo, estarão violando alguma das leis. Isso leva a um conceito de loop infinito, conhecido dos desenvolvedores de sistemas.

Os benefícios e malefícios da Robótica

No livro, Isaac Asimov descreve um mundo fantástico, em que nos primeiros capítulos já existem robôs domésticos avançados. Capazes de dar a vida por seus donos, ajudá-los em suas vidas diárias, evitando ao máximo machucá-los (de forma física ou sentimental).

No decorrer do livro, os robôs evoluem e passam a participar cada vez mais da vida dos personagens, permitindo desde avanços tecnológicos até participação em decisões de altas administrações. Mas se tudo isso ocorresse na vida real, onde ainda teríamos espaço? Afinal, robôs não se cansam e podem trabalhar o tempo todo. Asimov também demonstra essa preocupação ao mencionar entidades e sindicatos que são contra os robôs e o uso de tecnologia avançada.

Eu, Robô – Livro Vs Filme

Eu concluí a leitura do livro há apenas alguns dias, mas já tinha visto o filme de 2004 com Will Smith (Del Spooner) e Bridget Monayhan (Drª Susan Calvin). Faz tempo que vi o filme e não lembro tantos detalhes, mas percebi que a estória do filme é diferente da estória do livro. A começar pelos personagens, no livro não existe Del Spooner; enquanto a Drª Susan Calvin é uma protagonista.

Além disso, enquanto Hollywood se preocupa em fazer filmes com muita ação e robôs assassinos; no livro temos um mundo futurístico muito bem descrito, cheio de robôs e com os quais o ser humano passa a conviver e evoluir ainda mais rápido do que é hoje. No livro, os robôs são descritos como máquinas assistentes dos seres humanos, que embora possam falhar, não tem maldade para querer nos exterminar como acontece no filme.

Com relação às leis da robótica, no livro, a Primeira Lei chega a ser alterada para apenas “Um robô não pode ferir um ser humano”; no filme, alguns robôs têm a Primeira e a Segunda Lei totalmente ignoradas, fazendo com que eles cuidem apenas de si próprios.

A cena do filme apresentada na Figura 2 é uma das poucas que eu consigo imaginar durante a leitura do livro. No trecho a seguir, segue um spoiler do filme e um do livro. No filme, Will Smith procura o diferenciado robô Sonny que está escondido no meio de tantos outros robôs idênticos. No livro, o robô que teve sua Primeira Lei modificada é muito maltratado por um funcionário da empresa de robótica U.S. Robots. Entre os maltratos, o personagem pede para que o robô desapareça. O robô apenas atende a Segunda Lei e se mistura a tantos outros robôs, fazendo o máximo para não ser descoberto.

Filme - Eu, Robô
Figura 2 – Del Spooner procurando pelo robô Sonny.

Compre o livro na Amazon e ajude o IAsc!

Enquanto isso, no mundo real: 23 princípios para a IA

Nos últimos anos, a IA tem crescido muito e muitas pessoas têm medo do que ela pode causar. Inspirados ou não pelo livro Eu, Robô, recentemente algumas pessoas muito importantes assinaram um conjunto de princípios que eles acreditam que os sistemas de IA devem seguir. Entre essas pessoas estão: Stephen HawkingElon Musk, Donald Knuth, Stuart Russell, Peter Norvig, Nils J. Nilsson e muitos outros. No momento, essa lista contém 23 princípios. A seguir, apresento uma tradução própria dos princípios como são apresentados no site Future of Life.

Aspectos Científicos

    1. Meta de Pesquisa: A meta da pesquisa em IA deve ser criar inteligência não-direcionada, mas sim, uma inteligência benéfica.
    2. Financiamento de Pesquisa: Investimentos em IA devem ser acompanhados de financiamento para pesquisa da garantia de uso benéfico, incluindo questões difíceis em ciência da computação, economia, direito, ética e estudos sociais. Entre essas questões adicionais, estão:
      • Como podemos criar sistemas futuros de IA altamente robustos, tal que eles possam fazer o que queiramos sem apresentar mal funcionamento ou serem hackeados?
      • Como nós podemos aumentar nossa prosperidade através da automação enquanto mantemos recursos e propósitos das pessoas?
      • Como nós atualizamos nossos sistemas jurídicos para serem mais justos e eficientes, para manter o ritmo com IA, e gerenciar os riscos associados à IA?
      • Que conjunto de valores deve estar associado com a IA, e que estado jurídico/ético ela deve ter?
    3. Elo Científico-Político: Deve existir uma troca construtiva e saudável entre pesquisadores de IA e políticos.
    4. Pesquisa Cultural: A cultura da cooperação, confiança, e transparência deve ser adotada entre pesquisadores e desenvolvedores de IA.
    5. Evitar Condições de Corrida: Equipes desenvolvendo sistemas de IA devem ativamente cooperar para evitar que padrões de segurança sejam ignorados.

Ética e Valores

    1. Segurança: Sistemas de IA devem ser seguros ao longo do seu tempo de vida e verificáveis quando aplicável e viável.
    2. Transparência das Falhas: Se um sistema de IA causa prejuízos, deve ser possível verificar o motivo.
    3. Transparência Judicial: Qualquer envolvimento por um sistema autônomo em tomadas de decisão judiciais deve fornecer explicações satisfatórias e auditáveis por uma autoridade humana competente.
    4. Responsabilidade: Projetistas e desenvolvedores de sistemas de IA avançados são interessados em implicações morais do uso desses sistemas, do uso indevido, e das ações, com responsabilidade e oportunidade para moldar essas implicações.
    5. Alinhamento de Valores: Sistemas de IA altamente autônomos devem ser projetados de forma que suas metas e comportamentos sejam garantidamente alinhados com valores humanos durante suas operações.
    6. Valores Humanos: Sistemas de IA devem ser projetados e operados de forma que sejam compatíveis com ideais de dignidade humana, direitos, liberdade e diversidade cultural.
    7. Privacidade Pessoal: Pessoas devem ter o direito de acessar, gerenciar e controlar os dados que eles geram, dado poder de sistemas de IA para analisar e utilizar esses dados.
    8. Liberdade e Privacidade: A aplicação de IA para dados pessoais não deve cortar sem razão a liberdade real ou percebida das pessoas.
    9. Benefícios Compartilhados: Tecnologias de IA devem beneficiar e empoderar o máximo de pessoas, tanto quanto possível.
    10. Prosperidade Compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.
    11. Controle Humano: Seres humanos devem escolher como e se querem delegar ações para sistemas de IA, para alcançar metas escolhidas por seres humanos.
    12. Não Destruição: O poder dado pelo controle de sistemas de IA altamente avançados deve respeitar e aperfeiçoar, ao invés de destruir processos sociais e cívicos nos quais a saúde de uma sociedade depende.
    13. Evitar Corridas Bélicas na IA: Uma corrida por armamento letal autônomo deve ser evitado.

Aspectos de Longo Prazo

  1. Cautela com Capacidade: Não havendo consenso, nós devemos evitar suposições fortes a respeito dos limites superiores das capacidades da IA.
  2. Importância: IA avançada pode representar uma mudança profunda na história da vida na Terra, deve ser planejada para isso e gerenciada com cuidados e recursos proporcionais.
  3. Riscos: Riscos criados por sistemas de IA, especialmente catastróficos ou existenciais, devem ser assunto para planejamento e esforços de mitigação proporcionais com seus impactos esperados.
  4. Auto-melhoria Recursiva: Sistemas de IA projetados para recursivamente se auto-melhorar ou auto-replicar de uma maneira que possa levar rapidamente ao aumento de qualidade ou quantidade devem ser sujeitos a medidas de segurança e controle estritos.
  5. Bem Comum: Superinteligências devem ser desenvolvidas apenas no âmbito de ideais compartilhados amplamente éticos, e para o benefício de toda a humanidade ao invés de um Estado ou Organização.

Como podemos perceber, nesses 23 princípios há uma preocupação muito grande em fazer com que esses sistemas sejam seguros e que não venham a parar em mãos indevidas ou de poucos. No mundo de Eu, Robô, os robôs estão nas mãos de algumas poucas empresas, mas lá foi criado um elo científico-político (Princípio 3) para que as coisas se mantivessem sob controle ao invés de haver por exemplo ocorrer uma escravização de humanos por uma raça superior de robôs (o que violaria o Princípio 17).

Apesar dos 23 princípios terem sido assinados por tiversos especialistas da ciência e da IA, eles ainda não valem como uma lei ou acordo universal sujeito a penas por violação. Apesar disso, na minha opinião é um passo dado na direção correta. Eu tive dificuldade de entender alguns pontos, acho que seria interessante a Future of Life refinar esse texto antes de torná-lo mais importante no futuro. A organização poderia inclusive acrescentar sugestões de penas para a violação ou desobedecimento das regras dado que algumas delas podem ter impactos catastróficos se forem violadas.

Apesar de ser um livro que a cada dia se torna mais antigo (como qualquer outro livro); tenho a impressão de que Eu, Robô vai no sentido oposto se tornando mais atual. Recomendo a todos os interessados por ficção científica, IA e robótica. Um abraço a todos os meus visitantes e até o próximo texto.

Referências:

  1. Eu, Robô – Isaac Asimov (e-book Kindle)
  2. Wikipédia (PT) – Isaac Asimov
  3. Wikipedia (EN) – Timeline of Programming Language
  4. Future of Life – 23 Artificial Intelligence Principles
Anúncios