L’intelligence artificielle (IA) est un sujet brûlant, mais malgré les avancées technologiques, elle reste très différente de l’intelligence humaine. Peut-on vraiment programmer des valeurs et une éthique humaines dans les machines ? Cet article explore cette question cruciale.

L’intelligence artificielle : une réflexion sans émotion

Malgré la capacité des IA à traiter des gigaoctets de données et à simuler des conversations, leur intelligence ne démontre pas la complexité, la nuance et les multiples formes d’intelligence de l’esprit humain. Les IA peuvent jouer aux échecs, mais elles ne peuvent pas exprimer ce que cela fait de gagner ou de perdre. Les conversations simulées, basées sur des algorithmes, ne confèrent pas aux chatbots la capacité d’empathie ou de compréhension humaine.

L’apprentissage humain : un processus guidé et évolutif

Pour inculquer des valeurs et une moralité à l’IA, les programmeurs pourraient tenter d’imiter la manière dont les enfants apprennent et développent des notions de bien et de mal. Le développement des enfants semble émerger par étapes, parfois marqué par des sauts mentaux remarquables. Les humains apprennent dans le contexte de parents, d’enseignants et de pairs qui adaptent leur aide au niveau et à la capacité de chaque enfant, un processus souvent désigné comme le « scaffolding ».

La curiosité : un trait distinctement humain

Les humains possèdent une curiosité naturelle unique. Les enfants cherchent constamment à en savoir plus et à explorer et comprendre le monde et eux-mêmes. Il ne suffit donc pas de simplement programmer des machines pour apprendre. Nous devons également doter l’IA d’une curiosité innée, similaire à la pulsion biologique d’un enfant humain à comprendre, organiser et s’adapter.

Vers une IA éthique et empathique ?

Si les machines IA doivent un jour posséder une éthique, de l’empathie, une conscience ou des valeurs morales, elles doivent se développer en tant qu’êtres moraux hautement fonctionnels de manière autonome. D’où viennent l’empathie, la gentillesse et la compassion ? Sont-elles innées ou acquises par l’expérience de vie ? Les IA, comme les humains, doivent-elles atteindre un raisonnement moral supérieur par l’expérience progressive et les conseils ?

L’IA « post-conventionnelle » : un futur souhaitable ?

En grandissant, les humains développent un raisonnement moral « adulte » de plus haut niveau. Le psychologue Lawrence Kohlberg a qualifié le niveau le plus élevé de pensée « post-conventionnelle ». L’idée est que le raisonnement moral avancé peut aller au-delà de l’adhésion aux lois locales pour découvrir des principes éthiques universels à suivre.

Conclusion

La question demeure : voulons-nous que les IA deviennent des penseurs indépendants, post-conventionnels et conscients, capables de dépasser les règles ? C’est une pensée effrayante. En cherchant à créer des machines de plus en plus complexes et humanisées, nous devons réfléchir à la manière dont les futurs programmeurs formeront la prochaine génération d’IA pour qu’elle possède une intelligence émotionnelle, de l’empathie et une pensée et un comportement éthiques.