RAPIDINHAS

sexta-feira, 29 de janeiro de 2021

É possível uma super inteligência artificial estar, de alguma forma, viva?

Você deveria se sentir mal em puxar a tomada em um robô ou desligar um algoritmo de inteligência artificial? No momento, não. Mas e quando nossos computadores se tornam tão inteligentes ou mais espertos que nós?

Crédito da imagem: Depositphotos

Os debates sobre as consequências da inteligência geral artificial (AGI) são quase tão antigos quanto a própria história da IA (Inteligência Artificial). A maioria das discussões retrata o futuro da inteligência artificial como um apocalipse tipo Terminator (Exterminador do Futuro) ou como uma utopia tipo Wall-E. 

Foto: Reprodução | Internet

Em um ensaio recentemente publicado, Borna Jalsenjak, cientista da Escola de Economia e Administração de Zagreb, discute a IA superinteligente e as analogias entre vida biológica e artificial. Seu trabalho compreende uma coleção de artigos e tratados que exploram vários aspectos históricos, científicos e filosóficos da inteligência artificial.

Jalsenjak nos leva através da visão antropológica filosófica da vida e como ela se aplica aos sistemas de IA que podem evoluir através de suas próprias manipulações. Ele argumenta que "máquinas pensantes" surgirão quando a IA desenvolver sua própria versão de "vida", e nos deixa com algum alimento para pensar sobre os aspectos mais obscuros e vagos do futuro da inteligência artificial.

Singularidade IA

Singularidade é um termo que surge com frequência nas discussões sobre IA geral. E como não acontece com tudo que tem a ver com a AGI, há muita confusão e discordância sobre o que é a singularidade. Mas uma coisa chave que a maioria dos cientistas e filósofos concorda que é um ponto de inflexão onde nossos sistemas de IA se tornam mais inteligentes do que nós mesmos. Outro aspecto importante da singularidade é o tempo e a velocidade: Os sistemas de IA atingirão um ponto em que eles podem se auto aperfeiçoar de forma recorrente e acelerada.

"Dito de forma mais sucinta, uma vez que haja uma IA que esteja no nível dos seres humanos e que a IA possa criar uma IA ligeiramente mais inteligente, e então que se possa criar uma IA ainda mais inteligente, e então a próxima cria ainda mais inteligente e continua assim até que haja uma IA que seja notavelmente mais avançada do que a que os humanos podem alcançar", escreve Jalsenjak.

Para ser claro, a tecnologia de inteligência artificial que temos hoje, conhecida como IA estreita, está longe de alcançar tal proeza. Jalsenjak descreve os sistemas atuais de IA como "específicos do domínio", tais como "IA que é ótima para fazer hambúrgueres, mas não é boa em nada mais". Por outro lado, o tipo de algoritmos que é a discussão da singularidade da IA é "IA que não é específica do assunto, ou por falta de uma palavra melhor, é sem domínio e como tal é capaz de agir em qualquer domínio", escreve Jalsenjak.

Esta não é uma discussão sobre como e quando chegaremos à AGI. Esse é um tópico diferente, e também um foco de muito debate, com a maioria dos cientistas na crença de que a inteligência artificial a nível humano está a pelo menos décadas de distância. Jalsenjack especula sobre como a identidade da IA (e dos humanos) será definida quando realmente chegarmos lá, seja amanhã ou dentro de um século.

A inteligência artificial está viva?



Há uma grande tendência na comunidade da IA de ver as máquinas como seres humanos, especialmente à medida que elas desenvolvem capacidades que mostram sinais de inteligência. Embora isso seja claramente uma superestimação da tecnologia atual, Jasenjak também nos lembra que a inteligência geral artificial não tem que ser necessariamente uma réplica da mente humana.

"Que não há razão para pensar que a IA avançada terá a mesma estrutura que a inteligência humana se isso acontecer, mas como está na natureza humana apresentar estados do mundo de uma forma que nos é mais próxima, um certo grau de antropomorfização é difícil de evitar", escreve ele na nota de rodapé de seu ensaio.

Uma das maiores diferenças entre os humanos e a atual tecnologia de inteligência artificial é que enquanto os humanos estão "vivos" (e chegaremos ao que isso significa em um momento), os algoritmos de IA não estão.

"O estado da tecnologia hoje não deixa dúvidas de que a tecnologia não está viva", escreve Jalsenjak, ao qual acrescenta: "O que podemos ficar curiosos é que se alguma vez aparecer uma superinteligência como a que está sendo prevista nas discussões sobre singularidade, talvez valha a pena tentar ver se também podemos considerá-la viva".

Embora não orgânica, tal vida artificial teria tremendas repercussões na forma como percebemos a IA e agimos em relação a ela.

O que seria necessário para que a IA ganhe vida?



Partindo de conceitos de antropologia filosófica, Jalsenjak observa que os seres vivos podem agir autonomamente e cuidar de si mesmos e de suas espécies, o que é conhecido como "atividade imanente".

"Agora, pelo menos, não importa quão avançadas sejam as máquinas, elas a esse respeito sempre servem em seu propósito apenas como extensões do ser humano", observa Jalsenjak.

Há diferentes níveis de vida e, como a tendência mostra, a IA está lentamente se tornando "viva". De acordo com a antropologia filosófica, os primeiros sinais de vida tomam forma quando os organismos se desenvolvem em direção a um propósito, que está presente na IA atual, orientada para objetivos. O fato de que a IA não está "consciente" de seu objetivo e, desapercebidamente, reduz os números para alcançá-lo parece ser irrelevante, diz Jalsenjak, porque consideramos as plantas e as árvores como estando vivas, mesmo que elas também não tenham esse senso de consciência.

Outro fator-chave para ser considerado vivo é a capacidade do ser de se reparar e modificar a si mesmo, na medida em que seu organismo o permita. Ele também deve produzir e cuidar de sua descendência. Isto é algo que vemos em árvores, insetos, pássaros, mamíferos, peixes e praticamente qualquer coisa que consideramos vivo. As leis da seleção natural e da evolução forçaram todo organismo a possuir mecanismos adaptador ao seu ambiente, a reproduzir e garantir a sobrevivência de sua espécie.

Quanto à descendência, Jalsenjak postula que a reprodução da IA não necessariamente ocorre em paralelo como a de outros seres vivos. "As máquinas não precisam de descendência para garantir a sobrevivência da espécie. A IA poderia resolver os problemas de deterioração do material apenas tendo à mão peças de reposição suficientes para trocar as peças defeituosas (mortas) com as novas", escreve ele. "Os seres vivos se reproduzem de muitas maneiras, portanto o método real não é essencial".

Quando se trata de auto aperfeiçoamento, as coisas se tornam um pouco mais sutis. Jalsenjak aponta que já existe um software capaz de auto modificação, embora o grau de auto modificação varie entre diferentes softwares.

Os atuais algoritmos de aprendizagem de máquinas são, até certo ponto, capazes de adaptar seu comportamento ao seu ambiente. Eles ajustam seus muitos parâmetros aos dados coletados do mundo real e, à medida que o mundo muda, eles podem ser reeducados com base em novas informações. Por exemplo, a pandemia de coronavírus pode perturbar os sistemas de IA que foram treinados sobre nosso comportamento normal. Entre eles estão algoritmos de reconhecimento facial que não podem mais detectar rostos porque as pessoas estão usando máscaras. Estes algoritmos podem agora ajustar novamente seus parâmetros através de treinamento em imagens de rostos que usam máscaras. Claramente, este nível de adaptação é muito pequeno quando comparado com as amplas capacidades dos humanos e dos animais de nível superior, mas seria comparável, digamos, a árvores que se adaptam crescendo raízes mais profundas quando não conseguem encontrar água na superfície do solo.

Uma IA auto aperfeiçoadora ideal, no entanto, seria aquela que poderia criar algoritmos totalmente novos que trariam melhorias fundamentais. Isto é chamado de "auto aperfeiçoamento recursivo" e levaria a um ciclo interminável e acelerado de IA cada vez mais inteligente. Poderia ser o equivalente digital das mutações genéticas que os organismos passam ao longo de muitas gerações, embora a IA fosse capaz de executá-la em um ritmo muito mais rápido.

Hoje, temos alguns mecanismos, tais como algoritmos genéticos e pesquisa de grade que podem melhorar os componentes não-treináveis dos algoritmos de aprendizagem de máquinas (também conhecidos como hiperparâmetros). Mas o escopo de mudança que eles podem trazer é muito limitado e ainda requer um grau de trabalho manual de um desenvolvedor humano. Por exemplo, não se pode esperar que uma rede neural recursiva se transforme em um Transformer através de muitas mutações.

O auto aperfeiçoamento recursivo, entretanto, dará à IA a "possibilidade de substituir o algoritmo que está sendo usado por completo", observa Jalsenjak. "Este último ponto é o que é necessário para que a singularidade ocorra".

Por analogia, olhando para determinadas características, as IA superinteligentes podem ser consideradas vivas, conclui Jalsenjak, invalidando a alegação de que a IA é uma extensão dos seres humanos. "Eles terão seus próprios objetivos, e provavelmente também seus direitos", diz ele, "Os humanos compartilharão, pela primeira vez, a Terra com uma entidade que é pelo menos tão inteligente quanto eles e provavelmente muito mais inteligente".

Você ainda seria capaz de desconectar o robô sem se sentir culpado?

Estar vivo não é suficiente

No final de seu ensaio, Jalsenjak reconhece que a reflexão sobre a vida artificial deixa muitas outras perguntas. "As características aqui descritas sobre seres vivos são suficientes para que algo seja considerado vivo ou são apenas necessárias, mas não suficientes?" pergunta ele.

Identidade, autoconsciência e consciência são outros conceitos que discriminam os seres vivos uns dos outros. Por exemplo, será que um robô construtor de clipes de papel sem mente está constantemente melhorando seus algoritmos para transformar o universo inteiro em clipes de papel vivos e merecedores de seus próprios direitos?

O livre-arbítrio também é uma questão aberta. "Os humanos são co-criadores de si mesmos, no sentido de que não se dão inteiramente a si mesmos, mas fazem de sua existência um propósito e cumprem esse propósito", escreve Jalsenjak. "Não está claro se os futuros IAs terão a possibilidade de um livre arbítrio".

E finalmente, há o problema da ética da IA superinteligente. Este é um tópico amplo que inclui os tipos de princípios morais que a IA deve ter, os princípios morais que os humanos devem ter em relação à IA, e como as IA devem encarar suas relações com os humanos.

A comunidade de IA frequentemente descarta tais tópicos, apontando para os limites claros dos atuais sistemas de aprendizagem profunda e para a noção rebuscada de alcançar a IA geral.

Mas como muitos outros cientistas, Jalsenjak nos lembra que o momento de discutir estes tópicos é hoje, não quando já é tarde demais. "Estes tópicos não podem ser ignorados porque tudo o que sabemos no momento sobre o futuro parece indicar que a sociedade humana enfrenta uma mudança sem precedentes", escreve ele.

Por: Jonathan Pena Castro

Fontes:

Springer

Bdtechtalks

Mindmatters

  • Comentários do Blog
  • Comentários do Facebook

3 comentários:

  1. Este comentário foi removido pelo autor.

    ResponderExcluir
  2. A I.A está se aperfeiçoando para server as necessidades desse novo mundo com informações sendo criadas o tempo inteiro. Há 2 projetos que tentam filtrar essas informações: O perspective da google - https://www.perspectiveapi.com/ e o vin3 https://www.vin3.org/. Ambos tentam organizar os comentários de internet, que hoje está infestados de fake news.

    ResponderExcluir
    Respostas
    1. Verdade, machine learning está sendo o assunto do momento, em se tratando da tecnologia da informação. As mudanças estão sendo muito rápidas. A Lei de Moore já está ficando para trás...

      Excluir

Avaliado item: É possível uma super inteligência artificial estar, de alguma forma, viva? Descri��o: Classifica��o: 5 Revisado por: Como Somos Biologia