sans titre 1
La certitude, c’est aussi la certitude dans le nombre.
Mais le nombre ne fait pas la certitude.
Des recherches sont menées sur la propriété non locale (ce
qui veut dire autre que spatiale) des particules quantiques. Il existe au petit
niveau une indistinction du temps ainsi que de l’espace. Microsoft et d’autres
investissent massivement.
Mes deux hypothèses d’unification des lois majeures
(l’unification de la relativité et du quantique) : La pression de pans entiers
de structure d’univers dépendants d’une proximité d’un Tournant-Majeur-Docteur-Who
(fourche temporelle) poussaient peut-être tant la source qu’elle s’est définie
dépendante du futur, donc d’elle-même, donc variable, donc multi-univers. Et la
particule d’un univers à côté n’a pas vraiment de nécessité d’être au même
endroit. Peu à peu, peut-être que des décalages se sont produits, les sources de
base unique, informationnelles, plus abstraites que particules, ne se demandent
pas dans quels univers elles sont et sont floues aussi.
Sinon,
autre hypothèse, c’est la localisation géographique de la constante « énergie »,
dont est faite la matière aussi, qui est peut-être tiré de la substance de base
de l’univers « information », celle à laquelle s’est ajoutée une propriété
information géographique, qui serait la moyenne des tensions résiduelles, après
d’abord usure des bases paradoxales totales, dans le sens où à force de liaisons
entre les informations de base de l’univers originel, est apparue une notion
d’oublis souvenirs, puis des paradoxes.
On a
expérimenté des tentatives visiblement vérifiées de créer un étranglement
quantique purement non géographique, qui se répercute d’une particule à son
ancienne particule codépendante replacée 10 kilomètres plus loin (lors d’un
étranglement supplémentaire), dépassant la vitesse de la lumière. C’est une
expérience reconnue authentique dans les milieux scientifiques, et sur laquelle
des recherches en cryptographie sont menées par les armées.
C’est un
peu comme si le flou quantique n’était pas propre à la particule, mais qu’il ne
se réduisait jamais, c’est juste qu’il se disperse quand on le met en état de
paradoxe, qu’on l’étrangle. Mais pas n’importe où : Le long du chemin, jusque la
source de la décision qui a créé plusieurs dispositions dans une fourche ou une
nappe (une Nappe-Générique-Du-Docteur-Who). Ce qui compte, c’est l’origine
commune, parfois sa valeur de proximité, mais pas toujours géographique. En en
intercalant plusieurs, on file vraiment les trames et on fait du miroitement
style holographique. La pensée serait un genre de ces dons de la nature qu’on ne
connaît pas. J’aime le terme étranglement, proche de entanglement, traduction
d’intrication, terme propre à l’étude de cette caractéristique quantique.
Dans ce
sens, on étudie aussi l’étranglement des particules pour les ordinateurs. Cette
liaison entre 2 particules s’appelle un qubit, et on peut lier chacune
d’entre-elles à toutes les autres à la fois, c’est automatique en ce qui
concerne le côté ordinateur quantique (disons plutôt que je ne connais pas la
fabrication).
Cela
pose déjà des questions. En quoi quelque chose de flou pourrait-il aider des
ordinateurs ? La vitesse de calcul car non locale ? Comment programmer des
qubits ? Comment leur programmer des interactions complexes ?
Une
étude française a émis une théorie pour créer des qubits à portes logiques
stables partant des découvertes sur les similitudes quantiques des interférences
entre leurs ondes cérébrales. Mais d’ores et déjà, on peut considérer que
l’intérêt de l’informatique quantique actuelle est de pouvoir produire des
chemins logiques par répétition de data-algorithmes (dans un monde hors de
l’espace-temps, mais ça, soi-disant personne ne réagit), et d’y transférer les
datas à traiter.
Pour
l’instant, l’utilisation est la suivante : Comme en apprentissage machine, on
asticote le ciboulot de l’ordinateur non plus avec des données pures mais avec
des bouts de chemins, distants, soit en temps, soit en espace, soit en
multi-univers, soit en quantique, (donc du quantique de quantique) créant une
référence dans ce monde de l’information, donc des références pures, et des
références de références, et les points de sortie ne tardent pas à réagir
d’eux-mêmes face aux données. Mais à une vitesse et à une puissance de calcul
incroyable.
La
puissance de calcul n’est pas du côté algorithmique, mais du côté redondance. En
fait, ce qu’on veut, c’est amplifier la propriété de prédiction et de
communication globale du flou. Mais si c’est global, comment l’amplifier ? Pour
cela, les qubits en sont les unités de travail. On implémente des mécanismes de
forçage et d’aimantation trinaire des petites déterminations qui commencent à se
produire (toujours, jamais, pas toujours). On peut réaliser cela sur plusieurs
qubits, et là où la force de détermination habituelle humaine sur une assurance
évidente est posée par un cartésianisme, la force de certitude du qubit pourra
avoir lieu quand ils sont nombreux à déduire la même chose. Ils le sauront en
partageant un même qubit de base de flou parmi d’autres. Un ordinateur a du mal
à faire du parallélisme (il nécessite un microprocesseur par information, on
voit le gain potentiel). La force de certitude du qubit a lieu en parallèle
quand ils savent reconnaître en provenance d’autres qubits un qubit de base qui
indique la présence d’une certitude. Particulièrement intéressant de mettre en
place une référence qubit à la certitude absolue, dans ces qubits. Qui, en plus,
grâce aux propriétés précitées, pourra remonter le temps ! Peut-être à courte
échelle, je ne sais pas, paradoxes se mélangeant, il y a simplification
automatique prenant en compte surtout le plus stable. Car c’est bien connu, si
vous remontez le temps, vous vous influencez vous-même. Enfin on sait très bien
ne pas marcher sur le fil de son micro.
C’est
donc une informatique spécifique, qui permet de nouveaux traitements, mais pas
tant les anciens. C’est un formidable outil à apprentissage machine. Par
conséquent il fait partie du grand domaine qu’on appelle l’intelligence
artificielle, mais attention, pas encore facile de faire des sauvegardes. Mais
pas seulement ce domaine. C’est le domaine de la reconnaissance, de la détection
d’harmoniques, de la logique floue, des cristallisations, de signatures
médiatiques, de l’auto-détermination d’algorithmes, de la détection
d’algorithmes, les recherches dans le big data, du traitement de données
massives, de la détection d’imperfections, les circuits neuronaux, les circuits
neuronaux contrôlés, enfin quand-même beaucoup que de l’apprentissage machine.
Mais la puissance en perspective est grande en ce domaine. Pour l’avenir encore.
L’existence de ce monde de l’information non locale n’est déjà plus un débat,
chez ceux qui savent.
Les
recherches de Microsoft en ce domaine, sont de bloquer les états des qubits par
des paradoxes forts, beaucoup plus fort que les datas elles-mêmes, car quand le
nombre de qubits s’accroît, beaucoup de parasitages par l’information
surviennent, des tensions se faisant sentir, et sous la pression, les résultats
temporaires s’inversent (une profusion de nœuds de plus en plus solides, donc à
base de paradoxes, risque à mon avis de créer une nouvelle forme de matière
inerte schismique de l’ordre de l’usure temporelle, transmissible par contact
quantique). Il faut trouver les bons paramètres. On pourrait aussi leur proposer
de monter les qubits en piles d’appels d’air à plusieurs niveaux, afin de
répartir les tensions sur une pyramide plutôt qu’un nœud. Prenons exemple sur la
simplification géographique qui a généré potentiellement l’univers à partir du
monde informatif. La nature utilise aussi les propriétés du quantique. Le
quantique aussi. Le temps aussi. Dieu aussi. Le quantique des quantiques. Et
Dieu les nœuds aussi. Mais pour faire des jugements, lui, c’est en l’analyse et
l’enquête qu’il a foi, maintenant.
Frédéric Decréquy, version 1
du 6 octobre 2017.