ELIZA est un célèbre programme informatique écrit par Joseph Weizenbaum en 1966, qui simulait un psychothérapeute rogérien en reformulant la plupart des affirmations du « patient » en questions, et en les lui posant.
ELIZA fonctionnait par simple reconnaissance de formes et substitution des mots-clés dans les phrases produites. Typiquement, une affirmation « A » peut recevoir en retour la question « Pourquoi dites-vous que A ? ». Quelques connaissances de rattachement entre mots lui permettaient de renvoyer l’interlocuteur à un sujet plus large. « Parlez-moi de votre famille » est la réponse donnée (Dans les technologies de l'information (TI), une donnée est une description élémentaire, souvent...) à toute question comportant un mot-clé comme « mère » ou « fils ». À noter que ces transformations sont plus simples en anglais, langue de fonctionnement d’ELIZA.
Weizenbaum insiste dans son livre sur le fait que même si Eliza écrit « Je comprends… » à titre de protocole de politesse programmé envers l’interlocuteur, il s’agit évidemment d’une déclaration abusive : Eliza ne comprend en réalité rien du tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou...) de ce qui lui est transmis, il se contente de former des phrases à partir de modèles pré établis, enrichis par les mots clés trouvés dans les réponses du patient (Dans le domaine de la médecine, le terme patient désigne couramment une personne recevant...). Dit par ELIZA, « je comprends » possède en fait une connotation ironique : il s’agit en effet d’une de ses réponses à utiliser quand il n’a rien trouvé dans la phrase précédente lui permettant de construire une réponse plus adaptée (voir la chambre chinoise de John Searle pour le problème de la compréhension).
ELIZA se contente de relancer son interlocuteur, contrairement aux agents conversationnels de renseignement, qui sont conçus pour donner des réponses utiles en utilisant sa base de données (En informatique, une base de données (Abr. : « BD » ou...).
Le critère de pouvoir parler avec un humain sans qu’il se rende compte qu’il a affaire à un ordinateur (Un ordinateur est une machine dotée d'une unité de traitement lui permettant...) a été posé en critère d’intelligence artificielle.
ELIZA montre qu’il est possible de tromper certains humains avec des schémas logiques extrêmement simples. Le test de Turing serait-il inapproprié pour déterminer qu’un ordinateur pense ? La question n’a pas été tranchée, car après tout, il reste relativement aisé de trouver des questions auxquelles l’ordinateur ne saurait répondre de manière intelligente, ou en tout cas pas avec des programmes de type ELIZA. Exemples de questions difficiles :
Un programme écrit en Perl ou en Prolog (Prolog est l’un des principaux langages de programmation logique inventé à...) (ou une combinaison (Une combinaison peut être :) des deux) pourrait être écrit pour répondre à chacune de ces trois questions, voire aux trois, mais la complexité (La complexité est une notion utilisée en philosophie, épistémologie (par...) du programme augmenterait au moins linéairement avec le nombre (La notion de nombre en linguistique est traitée à l’article « Nombre...) de questions possibles, et celui-ci ne pourrait donc prétendre à la généralité
ELIZA était si convaincant qu’il y a beaucoup d’anecdotes à propos de gens qui devenaient de plus en plus dépendants émotionnellement de leur relation avec ELIZA. On peut tout d’abord expliquer cela par la tendance humaine naturelle à attacher aux mots un/des sens (SENS (Strategies for Engineered Negligible Senescence) est un projet scientifique qui a pour but...) que l’ordinateur ne pouvait y avoir mis.
On remarque aussi que la grande faiblesse d’ELIZA, être incapable de répondre quoi que ce soit, se contentant de continuer à faire parler son interlocuteur, était en fait un atout. Certaines personnes ne souhaitent pas vraiment qu’on leur réponde, et ne remarquent pas si leur interlocuteur les comprend. Il suffit de leur donner l’impression qu’elles sont écoutées.