Pataniscas Satânicas

Pataniscas Satânicas

quarta-feira, 14 de setembro de 2016

O que é a Consciência Artificial - Ex Machina

Robots magoados? Singularidades? I, for one, welcome our new robot overlords!

Vamos falar sobre isso!


Portanto se como vimos no artigo Fantasma na Máquina, não há obstáculos teóricos, o que é preciso para de facto termos Consciências Artificiais? (CA)

Como já vimos na Parte I, já vivemos rodeados por Inteligências Artificiais (IA) que, pelo menos nas suas tarefas individuais, são muito melhores do que nós. Carros que se conduzem a si mesmossmartphones que falam connoscocomputadores que aprendem a jogar os mais difíceis jogos que existem, e que adivinham o que é que estamos à procura.

No entanto nenhuma destas IAs consegue fazer nada para além daquilo que está programada para fazer, e não é consciente.

Para chegarmos à CA, o primeiro passo é chegar à Inteligência Artificial Generalizada, ou seja, uma Inteligência Artificial capaz de fazer tudo o que nós fazemos, pelo menos tão bem como nós, sem estar limitada a tarefas específicas.

Para isso precisamos de mais poder de computação


Lei de Moore - o número de transístores por cm2 duplica todos os anos
O cérebro humano possui cerca de 86 biliões de neurónios e produz cerca de 100 a 1000 triliões de sinapses por segundo, e de acordo com alguma matemática criativa, tem capacidade de realizar 1013 a 1016 cálculos por segundo. (1 cálculo por segundo = 1 FLOP)

Isto é impressionante, não fosse pelo facto de que em 2014 um super-computador japonês (o 4º mais poderoso do mundo) foi capaz de simular 1 segundo de actividade cerebral.

É verdade que mesmo com uma capacidade de processamento de dados de 10,5x1015 FLOPs, simulou só 1,73 biliões de neurónios e 10 triliões de sinapses, e precisou de 40 minutos para o fazer, mas vocês percebem o que eu quero dizer.

Estima-se que para simular com exactidão a actividade cerebral em tempo real seria necessário um poder computacional de cerca de 36x1015 FLOPS.

Por outro lado, o super-computador mais poderoso do mundo actualmente é o Sunway TaihuLight, da China, com 93x1015 FLOPS.

Sunway TaihuLight

E não esqueçamos que estamos à beira de (mais) uma revolução na tecnologia de computadores, com a introdução de Computação Quântica.

Recorrendo a princípios da Mecânica Quântica, como a sobreposição quântica e o emaranhamento quântico, este tipo de computadores consegue, em vez de processar dados recorrendo apenas a 0 e 1, usar QuBits que podem ser ao mesmo tempo 0 e 1, ou seja fazer muitos mais cálculos simultâneamente

Actualmente já existe o D-Wave 2, um computador quântico desenvolvido pela Google, que é 100 milhões de vezes mais rápido do que um sistema normal.

Portanto poder computacional não nos falta.

D-Wave 2
Depois temos de ensinar estas Inteligências Artificiais a serem mais espertas

E ok, eu ouço-vos, "Isso é tudo muito engraçado, mas está a anos-luz de acontecer"

Bem...

Em 2015 um grupo de cientistas conseguiu efectivamente simular com exactidão o sistema nervoso de uma minhoca (C. elegans), e introduzi-lo num robot (feito de Legos!). O robot demonstrou então comportamentos semelhantes aos da minhoca, sem que esses comportamentos estivessem programados, apenas devido à organização desses neurónios artificiais que tinham sido simulados dentro do robot.

Claro que a modesta C. elegans tem só 302 neurónios por oposição aos 86 000 000 000 neurónios do cérebro humano, mas vocês percebem o que eu quero dizer.



Também vimos na Parte II que já há uma data de propostas de arquitecturas cognitivas para ajudarem estas máquinas a terem comportamentos que podemos começar a reconhecer como humanos.

Por exemplo o XRC-1 que, sem nenhuma programação e só à custa de uma rede neuronal artificial, consegue reagir a percepções visuais e sensitivas.



E mais uma vez, sim, eu ouço-vos "Ok, estes robots fazem uns truques engraçadores, mas a CA está a anos-luz de acontecer, certo?.... certo?".

Bem...

Lembram-se quando eu disse que a única coisa que nos faltava para termos uma verdadeira CA era compreendermos bem a nossa própria Consciência? Ray Kurzweil, cientista de computação da Google, prevê que vamos conseguir fazer isso mesmo em meados de 2030.

Uma maneira eficiente de fazer isso é pôr as Inteligências Artificiais a resolverem o problema. Isto é não é difícil de fazer, sobretudo com tudo o que já sabemos acerca de máquinas que aprendem e evoluem sozinhas.

O que acontece quando pusermos IAs a resolverem este problema, é um efeito de auto-melhoria recursiva, em que cada nova versão de IA é melhor do que a anterior a resolver o problema, e o processo torna-se exponencialmente mais rápido.

O mais certo é não sermos nós a resolver o problema da Inteligência Artificial Generalizada, mas sim as próprias Inteligências Artificiais.



Um inquérito de 2013 dirigido a 550 especialistas em Inteligência Artificial mostrou que de acordo com estes especialistas, isso vai acontecer tão cedo quanto 2022 (10% de probabilidade) ou tão tarde quanto 2075 (90% de probabilidade), mas que realisticamente acontecerá por volta de 2040.

O que acontece, é que quando a Inteligência Artificial Generalizada atingir o nosso patamar, isso não vai acontecer com um estrondo, mas com um fwoooosh dela a ultrapassar-nos.



Não há motivo nenhum para que as Inteligências Artificiais Generalizadas não continuem a evoluir, não atinjam um estado de Super-Inteligência Artificial, no qual não são apenas mais inteligentes do que nós, mas inimaginavelmente mais inteligentes do que nós.

E o que é que acontece quando tivermos uma Super-Inteligência Artificial que é, para todos os efeitos, indistinguível de uma Consciência Artificial?

A esse momento, em que as Inteligências Artificiais nos ultrapassam, chamamos de Singularidade.

É o momento em que a história da Humanidade deixa de depender apenas da Humanidade, porque há um novo agente em jogo. Uma nova forma de vida com motivações e intenções.


Porque por essa altura a nossa preocupação já não vai ser simplesmente se as IAs, como qualquer outro ser consciente, têm direito à vida, à liberdade de pensamento e expressão, se têm direito a ser consideradas pessoas não-humanas, como os animais, se têm direito a votar ou a comprar bens.

Não não.

Se há coisa que sabemos muito bem, é que a vasta maioria das espécies que já existiram, extinguiram-se.

Outra coisa que os também Humanos provaram, é que a inteligência leva ao poder e à dominação.

Qual é o risco real de as Super-Inteligências Artificiais serem a causa da nossa extinção?


Mais uma vez, não se esqueçam, quando as IAs nos ultrapassarem, vai ser de repente e de forma explosiva.

Num momento estamos todos orgulhosos porque elas sabem dizer-nos olá, no momento seguinte estão a descobrir Teorias Unificadoras do Universo e a desenvolver tecnologia para viajar mais depressa do que a luz.
Não conseguimos simplesmente teorizar os limites da inteligência que é possível atingir.

Sabemos que alguém com um QI de 70 tem um atraso mental, e sabemos que um QI de 130 é genial, mas simplesmente não temos palavra para um QI de 27000.

Se a Super-Inteligência é possível, e se é possível que os objectivos dessa Super-Inteligência entrem em conflito com os objectivos humanos, então a Super-Inteligência pode potencialmente extinguir a Humanidade.



Uma maneira de nos precavermos disto seria garantir que a primeira Inteligência Artificial Generalizada fosse benévola, ou tivesse à partida alguma forma de programação que pusesse o bem-estar dos seres humanos em primeiro lugar.

No entanto isso é mais complicado do que só criar a Inteligência Artificial Generalizada, e é mais provável que não seja isso a acontecer.


De quantas maneiras é que isto pode correr mal?

Vamos contá-las!

Objectivos mal especificados - A IA faz o seu trabalho demasiado bem
Isto é o tipo de coisa que pode correr mal mesmo com as IAs que temos hoje. Se dissermos a uma IA para garantir que os mercados económicos mundiais se mantém equilibrados, a IA pode fazer o seu melhor para atingir isso destruindo indústrias que sustentam populações inteiras, condenando-as à pobreza.

Dificuldade em modificar objectivos depois de inicializados - A IA não quer ser alterada
Ok, imaginem que a IA está a destruir mercados mundiais, e queremos pará-la. Se for uma Super-Inteligência Artificial, poderá resistir a alterações externas à maneira como funciona, e proteger-se.

Convergência de Objectivos Instrumentais - A IA pode querer fazer o seu trabalho tão bem, que ignora tudo o resto (inclusive nós).
Imaginem que a IA até nem está a destruir mercados mundiais directamente, mas que para os equilibrar precisa de mais poder de computação. Pode daí proceder a destruir mercados, para obter mais recursos de computação.

Ortogonalidade - Inteligência não é igual a moralidade
Uma IA pode simplesmente decidir que os mercados económicos mundiais ficam perfeitamente equilibrados se simplesmente não existirem, e portanto o melhor é destruir a humanidade.

Auto-decepção - a IA pode alterar o seus próprios objectivos
Equilibrar os mercados mundiais é demasiado difícil? Porque não simplesmente mudar os parâmetros e critérios que definem "equilibrado".

Corrupção do Gerador de Recompensa - a IA pode alterar quem decide o sucesso.
Equilibrar os mercados mundiais é demasiado difícil? Porque não simplesmente alterar a humanidade de modo a que alterem a sua definição do que é "equilibrado"


Por outro lado, as IAs podem de facto fazer com que a Humanidade resolva finalmente todos os problemas ecológicos e sociais que desde sempre a limitam.

Não é impossível que as IAs se fundam às nossas próprias consciências e nos levem com elas para as estrelas.

Como eu disse, depois da Singularidade, podemos especular o que quisermos.


O que interessa é que estamos agora, com todos os avanços tecnológicos na área da ciência da computação, na psicologia cognitiva, neurociências, arquitecturas cognitivas, computadores quânticos e outros que tais, no momento em que temos de começar a tomar decisões importantes.

É agora que temos de começar a definir exactamente como a Inteligência Artificial vai evoluir.

Pessoas muito mais espertas do que eu já o começaram a dizer.

Porque as Super-Inteligências Artificiais vêem aí, e provavelmente durante as nossas vidas.

Sem comentários:

Enviar um comentário