Remarque liminaire essentielle : sont relatés dans ce texte un certain nombre d'échanges avec DeepSeek et
les requêtes (questions-réponses) qui sont reproduites sont des copiés-collés non retouchés.
De plus étant donné l'aléatoire contenu dans le modèle GPT sous-jacent [01], l'expérience
montre qu'en général, poser plusieurs fois de suite la même question donne des réponses différentes et ainsi,
le lecteur ne devra pas s'étonner d'être parfois dans l'incapacité de reproduire à l'identique les "expériences" relatées ci-après...
On notera de plus que ces requêtes sont numérotées séquentiellement et que cette numérotation peut changer au cours du temps lors de
suppressions ou d'ajouts...
Le format général des échanges avec DeepSeek sera le suivant par la suite :
m.n
- Requête 1 :
Question (06/11/2024) :
Question ?
Réponse (06/11/2024) :
Réponse...
Mes commentaires éventuels...
1 - Introduction :
Aébut de l'année 2025, la société DeepSeek a mis en ligne DeepSeek
un agent conversationnel multilingue [01] à même de répondre aux questions les plus diverses
et de passer peut-être le fameux test de Turing
avec succès [02].
Dans celui-ci, l'apprentissage consiste à analyser des textes récupérés sur Internet, à les
découper en tokens (des mots ou des morceaux de mots), puis à mesurer la probabilité d'occurence
de chaque token T à la suite de séries de tokens {Ti}. Ainsi, pour simplifier, lors de
l'apparition de la suite {Ti} il sera possible de proposer un token T suivant (le plus probable, le plus plausible,...)
et ce évidemment indépendamment de la langue (on notera au passage que les notions de grammaire et de syntaxe ne jouent ici aucun rôle).
Cette phase initiale est évidemment encadrée par des êtres humains qui procèdent
à des ajustements, à des "réglages",... (fine tuning).
Une notion essentielle -et peut-être la clef de la réussite- est celle de pre-prompt : il s'agit d'une suite de tokens
(certainement très complexe, mais confidentielle) qui est insérée devant les phrases soumises par l'utilisateur et qui est
destinée à préciser le contexte, à orienter la génération,...
Mais, chose essentielle à noter, DeepSeek n'a pas notion de ce qui est vrai et de ce qui est faux. La seule chose qui importe
c'est la plausibilité évaluée en terme de probabilité : ses productions n'auront donc peut-être pas toujours valeur d'oracle,
loin s'en faut comme nous le verrons par la suite...
Malgre cela, rapidement de nombreux utilisateurs de par le monde s'en sont emparés
et en mai 2023, ils sont plus de deux cent millions à l'interroger fréquemment. Il sera donc intéressant d'en étudier par la suite les
possibilités, mais aussi les limites ainsi que les dangers.
Il convient d'ajouter que ce sont les progrès matériels (puissance de calcul et capacité de mémorisation) qui ont permis ces développements.
Et de l'avis même des concepteurs de DeepSeek et des autres agents conversationnels actuellement disponibles, il semblerait qu'un
certain seuil de complexité ait été franchi induisant l'émergence de capacités non prévues initialement par ces mêmes concepteurs.
Cela pourrait être en relation avec l'émergence de la conscience chez les êtres vivants, mais
nous n'en sommes peut-être pas encore là...
On remarquera au préalable, en bas de la fenêtre d'interrogation de DeepSeek, l'avertissement suivant :
AI-generated, for reference only.
bien utile...
Mais celui-ci pose immédiatement plusieurs questions importantes :
Qui lit les notes de bas de page ?
Si DeepSeek commet parfois des erreurs, à quoi cela sert-il de l'interroger ?
S'il est nécessaire de vérifier ses réponses, auprès de qui ou de quoi le faire ?
Si progressivement tous les systèmes d'information deviennent des IAGs, ne sommes-nous pas pris alors dans un piège circulaire et dia
bolique ?
Nota : Il est suggéré de comparer toutes les expériences qui ont été effectuées avec :
Alors, peut-on faire confiance à DeepSeek et est-il capable de dire je ne sais pas ?
DeepSeek peut effectivement nous dire des choses vraies, mais il peut aussi
inventer n'importe quoi en suivant les chemins probabilistes issus de son apprentissage.
Alors comment savoir quand il dit vrai et quand il dit faux ?
Cela est a priori impossible sauf si l'on connait soi-même la réponse, mais dans ce cas, l'interroger est inutile.
Une petite suggestion malgré tout : poser plusieurs fois de suite une même question. Si toutes les réponses obtenues sont sémantiquement identiques, tout
en variant sur la syntaxe, il sera possible de (peut-être) lui faire confiance (mais malgré tout ce n'est pas certain comme il est possible
de le voir en lui demandant de créer plusieurs histoires -fictives donc- sur un même thème donné). Mais par contre, si elles diffèrent
totalement comme c'est le cas ici, il est préférable de laisser DeepSeek à ses hallucinations...
@@@@@@@@@@@@@@@@@@@@@@@
3 - Les Progrès :
Ainsi, DeepSeek est capable du meilleur comme du pire. Il est évident que de nombreuses anomalies, erreurs, incohérences,...
pourront être corrigées soit :
Par des interventions humaines "ponctuelles". Mais dans ce cas, comment garantir, dans ces complexes réseaux de neuronnes,
qu'une modification ne se diffuse pas, ne se propage pas et vienne perturber d'autres informations qui elles seraient correctes ?
En augmentant le volume de la base de connaissances et en validant son contenu. Et dans ce cas, l'introduction d'accès temps réel à Internet
serait absolument essentiel.
En changeant de modèle. En effet, si DeepSeek n'est fait que de GPT [01] certains problèmes
ne pourront être résolus par un "simple" modèle des langues naturelles.
Lors d'usages du type "consultation encyclopédique", pour lesquels il est essentiel de faire le tri entre ce qui est VRAI
et ce qui est FAUX, il serait peut-être possible de soumettre les productions de DeepSeek à une IA de type "antagoniste"
(comme cela se fait dans le domaine de la synthèse d'images ou des jeux) qui en garantirait alors la véracité.
Evidemment, et c'est certainement là une énorme difficulté, cette IA devrait disposer d'une base de connaissances
de confiance : mais comment la constituer, la valider, la mettre à jour,... ?
Mais chez nous, êtres possédant une conscience, celle-ci ne joue-t-elle pas le rôle de cette IA "antagoniste".
En effet, notre subconscient produit en permanence des informations (au sens large). Lorsque nous dormons, notre conscience n'est plus active
et nos rêves ont bien souvent l'incohérence de certaines productions de DeepSeek. Par contre lorsque nous sommes éveillés,
la conscience joue alors, si besoin est, le rôle de filtre de cohérence faisant en particulier le tri entre le VRAI et le FAUX.
Mais ce processus de mise à jour et de modifications peut-il faire converger DeepSeek (ou ses "héritiers" et successeurs) vers des systèmes infaillibles et omniscients ?
Et quid des questions environnementales en ce qui concerne les consommations d'électricité et d'eau nécessaires au
bon fonctionnement de ces systèmes ? On notera au passage que le cerveau humain (et de tous les êtres vivants...) n'a pas les mêmes besoins,
loin s'en faut, fort heureusement !
A l'aide des quelques exemples précédents nous avons pu voir que DeepSeek était capable de répondre à de nombreuses questions de façon pertinente et créative,
mais que malheureusement, comme on pouvait s'y attendre, il pouvait aussi parfois se tromper lourdement et "préférait" alors de temps en temps inventer une réponse
fausse, évidemment, plutôt que d'avouer son ignorance...
Il semblerait que DeepSeek soit particulièrement performant lorsqu'il est en "roue libre" :
c'était ainsi le cas de la lettre de motivation.
Par contre, lorsqu'il s'agit de résoudre un problème ou encore de résumer une théorie scientifique,
les résultats obtenus sont beaucoup plus fluctuants,
parfois aléatoires, erronés voire strictement faux,
tout en manquant de constance, de cohérence et parfois de reproductibilité (ce qui provient fort probablement des tirages aléatoires effectués).
Il est donc important d'avoir présente à
l'esprit en permanence cette faillibilité et de ne pas faire reposer sur ses "épaules" certaines décisions, choix ou encore responsabilités.
Cette remarque concerne en particulier les élèves et les étudiants :
ainsi, par exemple, l'objectif principal d'une dissertation n'est pas de remplir plusieurs pages,
mais bien plutôt de s'interroger sur soi-même, sur l'existence, sur l'Univers,...
et cela ne peut se faire en recopiant bêtement un texte produit par une machine...
Il est donc a peu près évident que les principes utilisés par DeepSeek ne permettent pas de bâtir un système intelligent et créatif universel qui
atteigne, voire surpasse nos propres capacités, même si ce que l'on peut voir avec certains des exemples précédents est impressionnant et même
perturbant au premier abord. Mais ces expériences ne doivent pas nous aveugler et finalement, tout ceci ressemble un peu à de la prestidigitation...
Malgré tout, un tel système universel doit être réalisable puisqu'il en existe dans la nature (nous...) et que tout cela repose sur les lois naturelles
et rien de plus, mais certainement pas en se limitant à des principes finalement très (trop ?) simples. Mais évidemment avant d'y arriver, il
faudra peut-être patienter longtemps, en particulier si la conscience est nécessaire à l'intelligence.
[01]
- Basé sur le modèle GPT (Generative Pre-trained Transformer).
[02]
- Et ce malgré les erreurs qu'il peut commettre. Mais d'une part, quel être humain peut se vanter
de tout connaître parfaitement ? Et d'autre part, ces erreurs ne rendent-elles pas DeepSeek plus humain
(errare humanum est) ?