(PFFF ! no 20230509) L’un des pionniers de l’informatique parallèle, Peter Hinton, vient de quitter Google afin de pouvoir dire le fond de sa pensée sur les défis que posent l’intelligence artificielle {1}. La menace est bien réelle. Pour ne donner que deux exemples: il serait possible de payer pour swatter un service d’urgence avec des messages générés par une une voix de synthèse; des covoitureurs professionnels commenceraient à se rendre compte que les tarifs offerts par les compagnies deviennent à la longue inéquitables {2, 3}.
Bien entendu il y a de bons côtés. Avec l’apprentissage-machine, des chercheurs pourraient communiquer avec les animaux ou retracer le développement des concepts {4, 5}. Alors que notre chatbot peut se targuer d’avoir écrit des articles scientifiques et que ses singeries linguistiques suffisent presqu’à passer un examen de médecine, devrait-on commencer à penser que la machine puisse penser {6, 7}? Mon point de vue rejoint celui d’Edsger W. Dijkstra: la question est aussi artificielle que de savoir si un sous-marin peut nager.
{2} https://www.vice.com/en/article/k7z8be/torswats-computer-generated-ai-voice-swatting
{4} https://www.scientificamerican.com/article/how-scientists-are-using-ai-to-talk-to-an
{5} https://phys.org/news/2020-08-machine-reveals-role-culture-words.html