Question artificielle

(PFFF ! no 20230509) L’un des pionniers de l’informatique parallèle, Peter Hinton, vient de quitter Google afin de pouvoir dire le fond de sa pensée sur les défis que posent l’intelligence artificielle {1}. La menace est bien réelle. Pour ne donner que deux exemples: il serait possible de payer pour swatter un service d’urgence avec des messages générés par une une voix de synthèse; des covoitureurs professionnels commenceraient à se rendre compte que les tarifs offerts par les compagnies deviennent à la longue inéquitables {2, 3}.

Bien entendu il y a de bons côtés. Avec l’apprentissage-machine, des chercheurs pourraient communiquer avec les animaux ou retracer le développement des concepts {4, 5}. Alors que notre chatbot peut se targuer d’avoir écrit des articles scientifiques et que ses singeries linguistiques suffisent presqu’à passer un examen de médecine, devrait-on commencer à penser que la machine puisse penser {6, 7}? Mon point de vue rejoint celui d’Edsger W. Dijkstra: la question est aussi artificielle que de savoir si un sous-marin peut nager.

{1} https://ottawacitizen.com/pmn/news-pmn/godfather-of-ai-leaves-google-warns-of-techs-dangers/wcm/3cfac307-ddac-49b3-8701-86e480d2b2a9

{2} https://www.vice.com/en/article/k7z8be/torswats-computer-generated-ai-voice-swatting

{3} https://www.npr.org/2023/04/25/1171800324/rideshare-drivers-raise-questions-about-how-algorithms-set-drivers-pay-rates

{4} https://www.scientificamerican.com/article/how-scientists-are-using-ai-to-talk-to-an

{5} https://phys.org/news/2020-08-machine-reveals-role-culture-words.html

{6} https://www.lapresse.ca/actualites/insolite/2023-02-09/le-logiciel-chatgpt-pres-de-reussir-un-examen-de-medecine-aux-etats-unis.php

{7} https://www.theguardian.com/science/2023/jan/26/science-journals-ban-listing-of-chatgpt-as-co-author-on-papers