INTEGRAAL-concept

INTEGRAAL-concept

Une machine peut-elle être consciente ?

une machine consciente.jpg

Il n'y a pas de tests objectifs pour la conscience. nous verrons que la conscience est purement subjective. Le concept selon lequel il pourrait y avoir un critère objectif pour la conscience est ce qu'on appelle une erreur de catégorie. La conscience est dans une catégorie par elle-même, tandis que les objets sont dans une catégorie distincte.

 

En 1950, le mathématicien anglais Alan Turing (1912 - 1954) a proposé un test pour déterminer si un ordinateur peut penser. Il a posé la question: "Supposons qu'un être humain, après de longues conversations avec l'ordinateur, ne peut pas faire la distinction entre les réponses de l'ordinateur et celles d'un humain, alors se pourrait-il que l'ordinateur soit intelligent?" Parce que nous savons que certains systèmes déterministes se comportent de façon chaotique et imprévisible, même un ordinateur déterministe pourrait être aussi imprévisible comme un être humain.

 

On pourrait penser qu'un ordinateur très complexe pourrait être capable de comprendre, et si la compréhension fait partie de la conscience, un ordinateur peut être conscient. Cependant, nous pouvons prouver qu'un ordinateur, peu importe sa complexité et peu importe commment il imite le comportement humain, ne doit pas être en mesure de comprendre. Ceci est illustré par le fameux test inventé en 1980 par le philosophe anglo-américain John Searle (1932 -). Son but était de montrer que l'être humain peut exercer une fonction qu'un ordinateur peut exercer (bien que beaucoup plus lentement) sans avoir aucune compréhension de la signification de la fonction. Par conséquent, si l'homme n'a pas besoin de comprendre, l'ordinateur n'a pas besoin non plus. Un ordinateur prend un ensemble d'états d'entrée, fonctionne sur eux au moyen d'une procédure algorithmique prédéterminée, et produit un ensemble d'états de sortie.

 

Bien qu'il le fasse par voie électronique, la même procédure peut être effectuée au moyen d'opérations mécaniques sur des pièces mécaniques. Un être humain pourrait prendre les mêmes états d'entrée (dans une forme lisible mais pas compréhensible) et en suivant simplement les instructions (l'algorithme) effectuer toutes les opérations mécaniques, sans aucune compréhension de la signification des états d'entrée-sortie ou de l'algorithme. (Par exemple, un humain peut résoudre un puzzle (scie sauteuse) en ajustant les pièces ensemble, mais pourrait ne pas être incapable de comprendre l'image résultante.) Ainsi, l'ordinateur ne doit pas comprendre non plus.

 

Si la conscience était vraiment une fonction de complexité, alors un ordinateur extrêmement complexe pourrait être conscient. Mais quelle serait la fonction de la conscience dans un ordinateur qui fonctionne algorithmiquement, à savoir, en suivant une procédure prescrite?

 

En 1930, le mathématicien australo-américain Kurt Gödel (1906 - 1978) a montré que, dans tout système logique fini descriptible (qui peut être décrit par un nombre fini d'états), qui est auto-cohérent et qui contient les règles de l'arithmétique , il y a de véritables déclarations qui ne sont pas des théorèmes du système logique. Sa preuve montre que ces déclarations vraies peuvent être vus comme vraies, même si elles ne sont pas des théorèmes.

 

Avant de discuter de ce théorème, nous devons d'abord définir ce que nous entendons par système logique. Considérez les déclarations :

a > b et b > c   où a, b et c sont des nombres entiers. Nous supposons que les deux déclarations sont vraies, à savoir que ce sont les axiomes. Ensuite, nous devons conclure que  a > c.  Ceci est un théorème qui doit être vrai si les axiomes sont vrais. Ceci est un exemple du plus simple système logique axiomatique possible. Il se compose d'un ensemble d'axiomes, qui sont acceptés mais ne sont pas prouvés, et l'ensemble de tous les théorèmes qui suivent des axiomes.

 

Le théorème de Gödel montre qu'aucun système logique ne peut produire tous les énoncés vrais qui sont possibles. En d'autres termes, il y a quelques vraies déclarations qui ne peuvent pas être prouvés au sein de tout système logique. Une conclusion que l'on peut tirer de ce théorème est que la conscience peut apprendre des vérités que l'ordinateur ne peut jamais découvrir en suivant les règles de la logique . Cela pourrait signifier qu'un ordinateur déterministe ne peut jamais modéliser la conscience, ou qu'aucun ordinateur déterministe ne peut être conscient, peu importe la façon dont il est complexe. En outre, cela pourrait signifier qu'aucune théorie scientifique (ce qui est un système logique) ne peut tout expliquer, y compris - peut-être - la conscience. Cela voudrait dire qu'il pourrait ne jamais être possible de concevoir une véritable théorie du tout. (La théorie du tout est le Saint Graal de la physique). C'est une théorie qui permettrait de déterminer toutes les lois physiques et les constantes physiques sans entrer des valeurs numériques.)

 

En 1982, le physicien américain Richard Feynman (1918 - 1988) a montré qu'un ordinateur classique (qui est déterministe) ne peut jamais simuler la non-localité [R.P. Feynman, Simuler la physique avec des ordinateurs, International Journal of Theoretical Physics, 21, (1982) 467-488]. Ainsi, si l'esprit non local existe vraiment, un ordinateur classique ne pourra jamais simuler un esprit humain.

 

Les êtres humains font preuve de créativité, ce qui est un pattern discontinu de la pensée. Il est difficile de voir comment un ordinateur déterministe, même chaotique, pourrait fonctionner de manière discontinue.Les humains semblent avoir un sens de la connexion intérieure avec d'autres humains qui pourraient ne pas exister entre l'homme et la machine, qu'importe sa complexité. Cette connexion, qui peut être une manifestation de l'esprit non local, peut être impossible à simuler pour tout type de machine.

 

 

Stanley Sobottka.

 

Source : "Cours in consciousness"

 

Traduction: Alain - 2016

 



30/04/2017
0 Poster un commentaire

A découvrir aussi


Ces blogs de Santé & Bien-être pourraient vous intéresser