“A Alma por meio da qual sou o que sou é inteiramente distinta do corpo e mais fácil de conhecer que ele”. (René Descartes, Discurso do Método)
Filósofos trataram essa questão, primeiro sobre a dualidade mente-corpo, depois sobre funcionalidade e intencionalidade. Primeiro, se mente é uma coisa e o cérebro outra, se uma coisa poderia ser separada de outra. E esse seria um caminho para desvendar a origem da consciência. Pois se cérebro (material) é a fonte da consciência (abstrato), então:
1º - Poderíamos criar um cérebro artificial que tivesse consciência.
2º - Material precede consciência, logo, nossa existência, que é a consciência que temos sobre nós mesmos, é um mero acaso.
Se insistirmos nessa linha de raciocínio teremos mais uma daquelas limitações de compreensão do nosso cérebro. Afirmo que os dois estão certos, e também estão errados!(?) Depende da aplicação, da intenção.
Richard Feynman, laureado com um Nobel de Física em 1965, pioneiro em eletrodinâmica e computação quântica, participou do Projeto Manhatthan (que criou a bomba atômica), fala sobre a possibilidade de criar um computador que pensasse como os humanos: “Um computador clássico, jamais poderá simular a não-localidade”.
Não-localidade é uma expressão técnica, que significa transferência de informação ou influência sem sinais locais; essas influências são do tipo ação-à-distância e instantâneas.
Continua Feynman: “Dessa maneira, se seres humanos são capazes de processamento de informação não-local, este será um de nossos programas não-algorítmicos que o computador jamais conseguirá simular”.
Einstein, Podolsky e Rosen, nos informam que localidade é o princípio onde todas as interações da física clássica (material) são mediadas por sinais transmitidos através do espaço-tempo: você aperta um botão, que existe fisicamente, e os fios levam a corrente elétrica até a lâmpada, que acende.
Computadores são feitos de peças materiais, e energia, que também é matéria (uma corrente elétrica é simplesmente o movimento de elétrons numa direção no espaço-tempo, ou seja, material em movimento), e não possuem vida; a resposta que o computador nos dá é baseada num estímulo elétrico que aplicamos nos seus componentes, que calculam o resultado por meio de um flip-flop eletrônico. Isto é, dependem de um estímulo aplicado no local dos circuitos, sem esse estímulo nada acontece. Se retirarmos a energia ou errarmos o código-fonte do programa, o resultado não acontece.
O pensamento humano é não-local, pois temos idéias novas sem que outra pessoa ou dispositivo as solicite; a “vontade” de ter idéias novas é espontânea, temos novos pensamentos a todo instante sem que nos seja solicitado. A idéia, como um insigth, é o verdadeiro salto quântico.
Os melhores resultados no sentido de criar um cérebro artificial vieram do campo da Inteligência Artificial, termo cunhado por John McCarthy, para ciência e engenharia de produzir máquinas inteligentes. EUA e Japão fizeram grandes investimentos nessa área até a década de 80.
A Inteligência Artificial (AI) tem 2 vertentes: AI Fraca e AI Forte.
A AI Forte consiste na tentativa de criar forma inteligente com computadores, que seja capaz de raciocinar e ser consciente.
A AI Fraca consiste em simular o comportamento humano de forma a não ser capaz de distinguir o humano do humanóide. Porém, ao se utilizar do processamento de linguagem natural, que é a capacidade de aprender novos símbolos, criar novos significados e classificar (ou julgar), a AI Fraca de sucesso se tornaria uma AI Forte.
Embora a AI Fraca tenha trazido ótimos resultados práticos para a ciência, porém, no que tange a criação da mente inteligente, nenhuma das duas AIs tiveram sucesso. Existe uma impossibilidade de simulação qualitativa, tanto de ordem eletrônica quanto de software:
"Foi provado que um simulador qualitativo, completo e robusto não pode existir, ou seja, desde que o vocabulário entrada-saída seja usado (como num algoritmo QSIM), haverá sempre modelos de entrada que causam predições erradas na sua saída. Por exemplo, a noção de infinito é impossível ser tida por uma máquina finita (computador ou neurônios se produzirem apenas um número finito de resultados num número finito de tempo). Neste caso é um simples paradoxo matemático, porque são em número finito as combinações saídas de qualquer conjunto finito. Se a noção de infinito pudesse ser obtida por uma certa combinação finita, isso significaria que o infinito seria equivalente a essa seqüência finita, o que é obviamente uma contradição. Por isso, o infinito e outras noções abstratas têm que ser pré-adquiridas numa máquina finita, não são aí programáveis." (Cem Say, A.C.; Levent Akın, H.. (2003). "Sound and complete qualitative simulation is impossible.".Artificial Intelligence 149 (2) p. 251-216.)
Quando entrei para a faculdade de Tecnologia, com ênfase em Eletrônica, era fascinado por essas questões, ficava horas pesquisando e desenhando circuitos com flip-flops, registradores, portas NOR, enfim, o que envolvia processamento e armazenamento, input e output. Particularmente, acredito que seja possível criar tanto o hardware quanto o software para uma inteligência artificial. Porém, mesmo que isso seja possível, cairemos noutra questão bem conhecida na Filosofia: A Sala Chinesa.
O filósofo John Searle criou uma história para ilustrar consciência e aparência em AI, a Sala Chinesa. Em AI Fraca, por exemplo, temos a simulação, de uma inteligência, que, se bem sucedida, levaria a uma simulação de AI Forte. Por fim, é simulação. Um robô te diria que tem sentimentos, mas você não teria certeza se ele sofre como você, ou se ele desenvolveu uma resposta de comportamento parecido com sentimento. Você poderia até ficar impressionado com o comportamento de um robô, mas desconfiaria ser uma emoção idêntica à sua ou programa de computador bem feito. Veja o primeiro trailler nesse post: AI, de Steven Spielberg.
Criar esse tipo de inteligência infringiria normas éticas, como a de que um robô deveria sempre obedecer a um humano, pois consciência solicita livre-arbítrio, necessidade típica da consciência. Veja o segundo trailler nesse post: Eu, robô, baseado no livro de Isaac Asimov.
Filósofos trataram essa questão, primeiro sobre a dualidade mente-corpo, depois sobre funcionalidade e intencionalidade. Primeiro, se mente é uma coisa e o cérebro outra, se uma coisa poderia ser separada de outra. E esse seria um caminho para desvendar a origem da consciência. Pois se cérebro (material) é a fonte da consciência (abstrato), então:
1º - Poderíamos criar um cérebro artificial que tivesse consciência.
2º - Material precede consciência, logo, nossa existência, que é a consciência que temos sobre nós mesmos, é um mero acaso.
Se insistirmos nessa linha de raciocínio teremos mais uma daquelas limitações de compreensão do nosso cérebro. Afirmo que os dois estão certos, e também estão errados!(?) Depende da aplicação, da intenção.
Richard Feynman, laureado com um Nobel de Física em 1965, pioneiro em eletrodinâmica e computação quântica, participou do Projeto Manhatthan (que criou a bomba atômica), fala sobre a possibilidade de criar um computador que pensasse como os humanos: “Um computador clássico, jamais poderá simular a não-localidade”.
Não-localidade é uma expressão técnica, que significa transferência de informação ou influência sem sinais locais; essas influências são do tipo ação-à-distância e instantâneas.
Continua Feynman: “Dessa maneira, se seres humanos são capazes de processamento de informação não-local, este será um de nossos programas não-algorítmicos que o computador jamais conseguirá simular”.
Einstein, Podolsky e Rosen, nos informam que localidade é o princípio onde todas as interações da física clássica (material) são mediadas por sinais transmitidos através do espaço-tempo: você aperta um botão, que existe fisicamente, e os fios levam a corrente elétrica até a lâmpada, que acende.
Computadores são feitos de peças materiais, e energia, que também é matéria (uma corrente elétrica é simplesmente o movimento de elétrons numa direção no espaço-tempo, ou seja, material em movimento), e não possuem vida; a resposta que o computador nos dá é baseada num estímulo elétrico que aplicamos nos seus componentes, que calculam o resultado por meio de um flip-flop eletrônico. Isto é, dependem de um estímulo aplicado no local dos circuitos, sem esse estímulo nada acontece. Se retirarmos a energia ou errarmos o código-fonte do programa, o resultado não acontece.
O pensamento humano é não-local, pois temos idéias novas sem que outra pessoa ou dispositivo as solicite; a “vontade” de ter idéias novas é espontânea, temos novos pensamentos a todo instante sem que nos seja solicitado. A idéia, como um insigth, é o verdadeiro salto quântico.
Os melhores resultados no sentido de criar um cérebro artificial vieram do campo da Inteligência Artificial, termo cunhado por John McCarthy, para ciência e engenharia de produzir máquinas inteligentes. EUA e Japão fizeram grandes investimentos nessa área até a década de 80.
A Inteligência Artificial (AI) tem 2 vertentes: AI Fraca e AI Forte.
A AI Forte consiste na tentativa de criar forma inteligente com computadores, que seja capaz de raciocinar e ser consciente.
A AI Fraca consiste em simular o comportamento humano de forma a não ser capaz de distinguir o humano do humanóide. Porém, ao se utilizar do processamento de linguagem natural, que é a capacidade de aprender novos símbolos, criar novos significados e classificar (ou julgar), a AI Fraca de sucesso se tornaria uma AI Forte.
Embora a AI Fraca tenha trazido ótimos resultados práticos para a ciência, porém, no que tange a criação da mente inteligente, nenhuma das duas AIs tiveram sucesso. Existe uma impossibilidade de simulação qualitativa, tanto de ordem eletrônica quanto de software:
"Foi provado que um simulador qualitativo, completo e robusto não pode existir, ou seja, desde que o vocabulário entrada-saída seja usado (como num algoritmo QSIM), haverá sempre modelos de entrada que causam predições erradas na sua saída. Por exemplo, a noção de infinito é impossível ser tida por uma máquina finita (computador ou neurônios se produzirem apenas um número finito de resultados num número finito de tempo). Neste caso é um simples paradoxo matemático, porque são em número finito as combinações saídas de qualquer conjunto finito. Se a noção de infinito pudesse ser obtida por uma certa combinação finita, isso significaria que o infinito seria equivalente a essa seqüência finita, o que é obviamente uma contradição. Por isso, o infinito e outras noções abstratas têm que ser pré-adquiridas numa máquina finita, não são aí programáveis." (Cem Say, A.C.; Levent Akın, H.. (2003). "Sound and complete qualitative simulation is impossible.".Artificial Intelligence 149 (2) p. 251-216.)
Quando entrei para a faculdade de Tecnologia, com ênfase em Eletrônica, era fascinado por essas questões, ficava horas pesquisando e desenhando circuitos com flip-flops, registradores, portas NOR, enfim, o que envolvia processamento e armazenamento, input e output. Particularmente, acredito que seja possível criar tanto o hardware quanto o software para uma inteligência artificial. Porém, mesmo que isso seja possível, cairemos noutra questão bem conhecida na Filosofia: A Sala Chinesa.
O filósofo John Searle criou uma história para ilustrar consciência e aparência em AI, a Sala Chinesa. Em AI Fraca, por exemplo, temos a simulação, de uma inteligência, que, se bem sucedida, levaria a uma simulação de AI Forte. Por fim, é simulação. Um robô te diria que tem sentimentos, mas você não teria certeza se ele sofre como você, ou se ele desenvolveu uma resposta de comportamento parecido com sentimento. Você poderia até ficar impressionado com o comportamento de um robô, mas desconfiaria ser uma emoção idêntica à sua ou programa de computador bem feito. Veja o primeiro trailler nesse post: AI, de Steven Spielberg.
Criar esse tipo de inteligência infringiria normas éticas, como a de que um robô deveria sempre obedecer a um humano, pois consciência solicita livre-arbítrio, necessidade típica da consciência. Veja o segundo trailler nesse post: Eu, robô, baseado no livro de Isaac Asimov.
A questão de um algoritmo que trate o infinito pode até ter relações com "intencionalidade" e "equilíbrio", para que o robô não entre em loop infinito e enlouqueça. Veja o terceiro trailler nesse post: O Homem Bicentenário, com Robin Willians.
Sobre isto, no momento, estamos presos numa equação que envolve Intencionalidade, espaço-tempo infinito, não-localidade, subjetividade, pensamento e linguagem.
Mesmo que seja permitido, a construção de uma AI ainda não é possível por questões tecnológicas. Pois as maiores autoridades no assunto acreditam que, utilizando a física clássica, como nos computadores atuais, não podemos criar uma mente consciente; talvez precisaremos desvendar alguns mistérios da física quântica para conseguirmos tal feito.
Quando atingirmos o nível tecnológico necessário, conseguiremos construir cérebros capazes de criar pensamentos, ter idéias de forma espontânea.
Estes cérebros serão uma nova forma de vida e experimentarão uma nova forma de consciência?
Que tipo de existência esses seres experimentarão?
Somos nós experiências desse tipo de tecnologia? (Veja o último trailler deste post: Matrix)
(Continua no próximo post)