Divergences avec modèle standard Fermion création non locale
 Les 33 questions fondamentales Condensat Bose Einstein  l'Univers miroir  Ratio de Planck Prémisses fondatrices
Un modèle d'univers complet, créé à partir du "rien" préquantique. Ce dernier est représenté par une infinité d'oscillateur-tachyons duaux respectant strictement le Principe d'Action Nulle (PAN). Il existe deux états d'univers : préquantique sans constante et quantique avec constante. La transition est purement aléatoire. Un certain nombre N de points zéro d'oscillateurs-bosons-duaux stochastiques se superposent (fusion en BEC) aléatoirement. La loi de Huygens (généralisée) les synchronise et le refroidissement brusque crée un premier condensat de Bose Einstein (BEC). Avec N aléatoire, le BEC est forcément instable. Il se divise (mitose) en BECs-fils de même taille (BIG BANG) jusqu'à ce que la densitié de bosons soit en équilibre. La signature de cet univers est le ratio ξ (nombre de mitoses). Par définition, le nombre ξ est également le taux d'élargissement de l'intervalle quantique élémentaire. Ainsi la constante de structure fine dépend de ξ. A quantité de mouvement égale, le ralentissement à la célérité c, transforme les tachyons en électron-positons de la première couche. Ces paires sont séparées (non localité) ce qui leur donne un statut de boson local. Mais toutes les autres couches, freinent dans le rapport inertiel (ξ^3). Ainsi la causalité est partiellement rétablie et une grande annihilation se produit. Celle-ci s'opère en (5+1) étapes fractales. Cela se recoupe parfaitement avec le ratio : {quantique/subquantique} et toutes les mesures à toutes les échelles. On a notamment la mesure du ratio {coulomb / grave} pour une paire électron-positron qui est précisément de ξ^4. La localité et le principe d'action nulle sont les clés de ce modèle.


INPI 2010 +
-
Dernière mise à jour : 16 février  2015

R(2010-11) :




Le modèle OSCAR revu sans équation

Après le livre publié en 2012, voici en direct, l'écriture de la version light  

qui sera publiée dans quelques mois après corrections diverses 

Avant propos

La physique fondamentale et les questions concernant les mystères de l'univers ne doivent pas rester dans le giron d'une seule minorité dominante mais élargies à tous les citoyens. Cependant ce domaine est traditionnellement empreint de mathématiques ardues qui sont de nature à décourager monsieur tout le monde. On sait par ailleurs que ce domaine réclame avant tout des compétences de généraliste et las, le cumul de spécialistes manque cruellement de débats transverses, chacun restant obstinément dans son domaine. De ce fait la physique fondamentale est en crise depuis plus de vingt ans et le citoyen lambda – et même certains spécialistes –ne le savent pas.

Alors comment faire pour ouvrir ce domaine à tous en se privant du nécessaire langage mathématique permettant de le mieux formaliser ? La méthode que nous employons ici consiste en deux étapes. Un premier livre a été édité en 2012 pour exposer le modèle complet, « bourré d'équations ». Il est  doté d'une solide bibliographie et d'un lexique assez complet. Ce livre fait ainsi référence unique au second ouvrage dont le brouillon s'élabore ici même en mode littéraire et sous forme de question-réponses. Les questions sont élaborées en prenant langue avec des candides dont le niveau de culture scientifique est relativement faible. Le défi est de mettre en œuvre une pédagogie qui permette la plus grande ouverture. Chaque auteur d'un modèle d'univers devrait faire cette démarche en retour au bon peuple qui lui verse son salaire avec ses impôts. Le modèle d'univers OSCAR, remet en cause le modèle standard sur pas mal de points bien précis. Il dénonce notamment cette croyance répandue qui laisse entendre que la méthode scientifique actuelle est rigoureuse. Oh certes, elle s'est largement améliorée au cours des siècles mais il semble que depuis près de cent ans, elle a oublié de prendre en compte certains résultats d'expériences par trop troublantes. Deux grandes étapes sont dénoncées et expliquées (nous n'avons cesse de dire que décrire n'est pas expliquer) : celle attribuée au mode de pensée de l'école de Copenhague (Niels Bohr, Werner Heisenberg, Pascual Jordan, Max Born, Pauli...)

Nous dénonçons les méthodes de ces auteurs qui sont considérés par beaucoup comme les « maîtres absolus». Ils ont dits entre autres cette phrase inouïe : « il ne faut pas chercher à comprendre ». Ces inventeurs de la théorie quantique – qui par ailleurs donne des résultats (locaux)  indéniables – ont capitulé devant certaines expériences qui semblaient trahir les lois fondamentales de la physique. Par exemple, ne pouvant mesurer le rayon « classique » de l'électron, et ne pouvant mettre en avant une explication, ils ont arbitrairement considéré : a) que ce dernier était nul et b) que la physique classique ne s'appliquait pas à ce niveau. Nous allons montrer que ce sont deux très graves erreurs qui ont mis la physique dans l'impasse dans laquelle elle se trouve aujourd'hui. D'aucuns comme Einstein ont dénoncé cette méthode qui s'appuie sur la fameuse « redoutable efficacité des mathématiques ». Il faut expliquer ici que la mathématique est redoutable dans le sens où elle est capable de se passer de prémisses physiques pour décrire ….la physique. Par exemple un rayon zéro, strictement impossible en physique, devient « gérable » dans l'abstraction mathématique. Nous allons montrer précisément pourquoi on ne mesure pas directement le rayon classique de l'électron, alors qu'il existe bel et bien. En résumé ce rayon est le résultat attendu quand on compare l'énergie électrique et l'énergie de masse d'un électron. Il y a ici une égalité stricte que l'on doit trouver et on a pas su, à l'époque. Il est vrai qu'au début du siècle dernier, on avait pas encore à disposition les riches observations obtenues au cours des années qui ont suivi, jusqu'à aujourd'hui. Il y a notamment celle – fondamentale – menée par messieurs ASPECT et BELL qui concerne ce que l'on appelle "l'intrication du spin des particules". Nous allons développer cela mais en résumé, quand on met deux particules appariées dans un certain état et qu'on les éloignent énormément, on s'aperçoit qu'elle restent unies malgré la distance. En fait tout ce passe comme si leur vitesse de communication était largement supérieure à celle de lumière. D'aucuns disent même que la communication est instantanée ce qui est aussi absurde que l'idée du rayon nul. Cette expérience est tellement dérangeante que nombre de chercheurs (ceux qui ne cherchent pas à comprendre) l'ont carrément éludée. Heureusement pas mal de physiciens éclairés, comme BELL, BOHM, BRICMONT, MERMIN, STAPP et d'autres, déclarent que cette expérience montre que « l'univers n'est pas local » et que cela est très lourd de conséquence. Tellement lourd de conséquence que.... peu de physiciens ne remettent en cause le problème de localité. Cette notion de localité est au centre du modèle OSCAR. Nous allons voir que – tout comme le rayon classique – cette expérience (faite et re-faite) est attendue par le modèle OSCAR. Elle signe une structure subquantique supraluminique qui fournit l'état de spin – et seulement lui – aux particules. Autrement dit, la structure de cet espace-temps est naturellement intriquée. Attention, ce n'est pas une interprétation de l'expérience, c'est une confirmation du modèle. Cela est développé ci après. Nous allons montrer que tout le protocole expérimental actuel est à revoir pour tenir compte de cette non localité. Pourtant ce protocole apparaît comme parfait. On pose des postulats et on les vérifie expérimentalement. C'est l'expérience qui est déterminante pour éliminer ce qui ne colle pas. A première vue cela paraît impeccable mais ça ne l'est pas. L'expérience du siècle sur la notion de localité – résumée ci-dessus – exige de mettre un critère de localité dans toute expérimentation. Cela veut dire qu'il existe une dualité forte {localité – non localité} dont il faut tenir compte. Alors voyez ce protocole :

{postulat + expérimentation}

devrait s'intituler :

{postulat + expérimentations locale et non locale}

Est-ce suffisant ? Non car s'agissant de comprendre l'univers il faut éliminer la méthode qui consiste à faire des « postulats » qui ne sont que des spéculations. Il faut remplacer cela par des prémisses physiques fondamentales. Alors bien sûr vous direz que c'est difficile et que l'on peut être tenté de faire comme pour le rayon classique qui ne marche pas, à priori. Oui c'est difficile mais il faut faire confiance aux plus grandes lois fondamentales et ne pas les trahir à la première difficulté. Les physiciens qui s'occupent des questions relatives à la naissance de l'univers, sont considérés par pas mal d'autres comme des métaphysiciens. Leur argument (faux) est le suivant : « puisque les origines sont à jamais inconnaissables, alors cela n'appartient pas au domaine de la physique ». Comment ces gens peuvent-ils affirmer que cela est « à jamais inconnaissable ?». N'est-ce pas une preuve que ces chercheurs (qui ne cherchent pas à comprendre » s'en remettent systématiquement à une divinité ? On voit bien d'emblée qu'ils n'ont pas compris monsieur POPPER qui expliquait que le physicien doit à tout prix savoir démarquer la part du religieux de la part du raisonnement pragmatique. C'est un peu comme pour la laïcité. Ces « physiciens », malheureusement nombreux, ont amené arbitrairement l'idée qu'il existe une limite (Big Bang) au delà de laquelle on ne peut rien comprendre. Ils nous disent en quelque sorte que « les voix du seigneur sont impénétrables ». Et ce sont les mêmes qui considèrent que s'occuper de l'avant BIG BANG, est du domaine de la métaphysique.

Alors quelles sont les prémisses physiques les plus fondamentales et les plus prudentes ? Nous allons montrer qu'il s'agit du principe d'action nulle (PAN) appliqué dans le cadre strict de la symétrie duale. Plutôt que de partir de notre pauvre monde local pour remonter vers le passé, nous appliquons tout simplement le PAN à l'origine pour voir ses conséquences incontournables. Cette approche se révèle être d'une richesse incroyablement prolifique et elle respecte totalement ce nouveau paradigme de protocole :

{PAN DUAL + expérimentations locale et non locale}

La spéculation est utilement remplacée par la mise en œuvre de principes indiscutables et l'étude systématique de leurs déclinaisons. On entend souvent dire « voici un nouveau paradigme » mais en fait ce sont justes de nouvelles spéculations. Ici nous touchons à la rigueur du protocole en tenant compte de la plus importante conclusion expérimentale qui touche à la dualité de la notion de localité. Nous allons voir que cette notion de localité remet en question la classification des particules. La dichotomie {boson-fermion} est revue à l'aulne de la localité et ce faisant, les grandes énigmes de l'univers se résolvent directement. Pour terminer cet avant propos, il faut également dire que le modèle OSCAR est (malheureusement) le seul à poser 33 questions fondamentales sur l'univers. Vous pouvez chercher, peu de physiciens ne s'intéressent à recenser les questions fondamentales au delà d'une dizaine. Comment répondre à des questions que l'on ne se pose même pas ? 

Une autre observation dérangeante est également totalement éludée. Il s'agit d'un unique et immense vide (froid) dans l'univers. On l'appelle « le point froid de l'Eridan ». Un immense trou d'un milliard d'années lumière est pudiquement appelé « point ». Cela ne vous rappelle rien ? Mais si le rayon zéro de l'électron. Ce qui gêne est largement minimisé. C'est humain mais pas très scientifique ! Le modèle OSCAR attend ce trou unique et en plus, pile à cette distance.

La méthode d'investigation de la physique est aujourd'hui sur le mode réductionniste. Il est vrai que dans le cadre limité d'une recherche locale avec application technologique, cette méthode a donné des résultats probants. Ensuite les cosmologiques ont posé le principe cosmologique qui nie totalement la localité. Ce que l'on peut voir ici serait valable partout..... Si c'est vrai pour un bon nombre de paramètres, ce principe est simple voire simpliste. En tout cas commode. Cette spéculation est incontournable lorsqu'on utilise la seule méthode réductionniste.

L'idée d'aborder globalement (holisme) le monde a été abandonnée car les préceptes ou prémisses étaient souvent colorés de théologie....D'autre part, la rigueur épistémologique des sciences, ayant progressé, les prémisses anciens sont apparus comme désuets. En revanche, aujourd'hui – fort de ces progrès – il faut utiliser la dualité de ces méthodes. Quand on allie, plutôt que d'opposer, le réductionnisme et le holisme, alors on augmente ces chances pour peu que les prémisses physiques soient bien pesées à l'aulne des contraintes modernes.

C'est la raison pour laquelle, la recherche discutée ci-après, part du néant en disant clairement que l'on attend tout du « rien ». On verra que pour utiliser ce terme, il faut en faire un définition fondamentale et poussée, très éloignée de la terminologie moyenâgeuse comme le mot "vide" encore employée aujourd'hui.

Question 1 : de quel postulat part le modèle OSCAR, d'une spéculation mathématique ou physique, d'un pré-univers ou néant statique ?

Réponse : le modèle OSCAR ne part d'aucun postulat ni de spéculation, mais de contraintes démontrées incontournables. Il existe deux arguments forts pour rejeter le postulat du néant statique : a) tout ce qui est statique comporte forcément des paramètres physiques précis (constantes)  et il est donc impossible de les justifier; b)  par définition ce qui est statique ne peut évoluer. Or on sait que l'univers est largement évolutif. Une seule de ces deux raisons, suffit à rejeter la possibilité d'un néant statique. Il est donc impossible et injustifiable que le néant puisse être statique.

Question 2 : le néant est donc fluctuant mais qui l'anime ?

Réponse : plutôt que de spéculer sur ce problème, il vaut mieux partir de contraintes incontournables telles que le principe d'action nulle (PAN) résultant d'une dualité. Ensuite, comme fluctuer veut dire osciller, on a donc des oscillateurs duaux dont l'action résultante est forcément nulle. La notion de dualité est très puissante. Elle implique deux entités contraires qui s'annulent. En biologie cette dualité est la base de la régulation entre deux actions chimiques contraires. En absence de perturbation, l'action correctrice est nulle car les deux actions symétriques s'annulent.  Cette dualité biologique trouve son origine – comme beaucoup d'autres phénomènes courants – dans le principe premier de la physique, l'action nulle duale. Concernant l'état d'univers, on peu dire que sans ce principe, on serait tenu de justifier l'énergie minimale de fluctuation. Dans le monde quantique mesurable (celui qui découle de ce néant fluctuant), cette énergie minimale du point zéro est connue et même rattachée à la constante h (voir réponse 10 bis).  Mais d'une part on ne peut pas projeter cette constante dans un état d'univers où les constantes ne sont pas encore justifiées et d'autre part, on ne saurait admettre toute énergie minimale même aléatoire ! Donc la seule réponse non spéculative à « qui l'anime ? » est motivée par cette contrainte de fluctuation duale (oscillation) incontournable. On est contraint de poser :

1/ l'action nulle (strictement) implique une dualité oscillante qui s 'annule.

2/ pour osciller chaque entité duale est contrainte d'avoir des paramètres physiques.

3/ ces paramètres physiques sont stochastiques (fluctuant, qui relèvent du hasard, renouvelé à chaque cycle) et en 1D.

4/ il existe donc 2 types de zéro : le zéro résultant de la dualité, strictement nul et le zéro confiné de chaque entité, strictement asymptotique et symétrique.

Ainsi le terme « animation » est strictement de type cinématique et surtout pas dynamique. Le néant ultime n'a pas d'autre alternative.

Question 3 : Mais alors qui fixe le nombre d'oscillateurs ?

Réponse : ce nombre ne peut-être qu'infini, pour trois raisons. Déjà tout nombre avancé ne saurait être que pure spéculation. Ensuite, cet infini ne consomme rien puisqu'il s'agit de somme de zéro. Enfin, on ne saurait justifier des limites à cet état d'univers-néant.

Question 4 : dans quel espace évoluent ces oscillateurs duaux stochastiques ?

Réponse : dans rien puisque ce sont eux qui matérialisent à la fois le contenant et le contenu. En fait, ces oscillateurs 1D sont non connexes et l'espace structuré en 3D n'existe pas encore.

Question 5 : mais l'espace 3D mathématique que nous connaissons n'est-il pas inné ?

Réponse : c'est bien trop facile de dire qu'il est inné, il faut expliquer son évolution à partir du PAN. L'espace 3D doit être clairement justifié et il va l'être par la suite, non pas en posant une spéculation de plus mais juste en empilant les contraintes incontournables liées au principe d'action nulle (PAN) dans le principe fort de dualité.

Question 6 : mais comment vérifier par la mesure que ce montage de « contraintes empilées » correspond bien au monde quantique dans lequel nous vivons ?

Réponse : justement nous allons montrer que ces contraintes, sont tout à fait mesurables dans notre monde quantique. Mieux, elles permettent de lever toutes les grandes énigmes de l'univers. Le modèle est le seul à recenser 33 énigmes. Comment répondre à des questions que l'on ne se posent même pas, comme par exemple, d'où vient le spin ou l'espace 3D ?

Question 7 : que sont ces 2 entités duales confinées qui s'annulent dans l'oscillateur ?

Réponse : Ce sont des corpuscules dont la masse variable est imposée par le besoin d'osciller pour satisfaire le PAN. Ces corps seront  nommés « paire de tachyons » et ils forment ensemble une entité appelée «boson d'action nulle». Cela implique la notion de dualité de référentiel. Chaque référentiel tachyon est causalement relié à son alter ego pour raison de conservation de l'action nulle dans le référentiel boson. On montre plus loin que toutes les dualités de la physique quantique, viennent de là (dualité onde-corpuscule, dualité fermion-boson, etc...). La paire de tachyons, possède une amplitude spatiale variable qui représente l'onde duale et deux corpuscules sans spin. Le spin, comme l'espace-3D seront justifiés plus loin, dans des transformations démontrées comme incontournables.Il faut bien comprendre que la masse, l'espace 1D (corde) et le temps représentent alors un continuum forcé d'osciller. Cet oscillateur dual ne coûte rien en énergie. 

Question 8 : dans le référentiel tachyon il existe donc une énergie ?

Réponse : oui mais elle n'est que potentielle car toujours annulée par l'ater ego. Cette annulation est représentée par le lien causal sous forme d'une charge qui est l'ancêtre de la charge électrique élémentaire. On verra que la physique moderne a considéré que la charge au carré e² était proptionnelle au produit masse × longueur. On peut comprendre que lorsque la longueur (l'amplitude) et la masse grandissent de concert, la charge (lien causal) est forcé d'évoluer comme ces deux paramètres.  L'espace et le temps sont également annulés en tout point de l'amplitude spatiale. Pour être plus précis, dans le référentiel tachyon, le temps (comme l'espace 1D), s'enroule et se déroule alternativement, alors que dans le référentiel boson, il n'apparaît pas. Le problème de l'énergie minimale est ainsi réglé car cet état d'univers est strictement cinématique. 


Question
9 : si le temps particulier (boson) n'existe pas, alors il n'existe pas non plus dans cet état d'univers stochastique ?

Réponse : tout juste et cela est vraiment fondamental. On a une infinité d'oscillateur-ID-stochastiques dont les fluctuations ouvrent la voie à une très faible probabilité (elle tend vers zéro) de fusion de points zéro des oscillateurs. On montre que cette probabilité est si faible qui si le temps s'écoulait, il faudrait une durée quasi infinie pour obtenir une fusion d'un grand nombre significatif. Mais avec un temps figé, le potentiel de combinaison tend forcément vers l'infini, ce qui amène une probabilité unitaire de fusion. Ainsi, l'action nulle duale associée à la notion de probabilité, est puissant car elle  est déterministe. Elle amène forcément à la notion de fusion des oscillateurs stochastiques et à leur synchronisation.  

Question-réponses - 10 à 20

Question 10 : la transformation de cet état de néant est donc inéluctable ?

Réponse : oui et nous savons très bien à quoi correspond la fusion de bosons. Elle donne un condensat de Bose Einstein (BEC) si les paramètres physiques sont bien ajustés. 

Question 10 bis En quoi consiste un condensat de Bose Einstein (BEC) ?

Réponse : pour comprendre cela il faut savoir qu'il existe deux grands types de particules : les fermions (nom emprunté à FERMI) et les bosons (nom emprunté à BOSE). Nous allons les découvrir au fur et à mesure de l'avancement mais on peut déjà dire qu'ils sont séparés par leur aptitude à se condenser ou pas. Les bosons savent vivre ensemble, bien serrés, alors que les fermions ne le peuvent pas. Par exemple un atome hélium 4 est un boson (composite), alors qu'un électron (–) ou un proton (+) est un fermion. En second lieu on parle de spin (rotation en anglais) et plus exactement de moment cinétique. C'est juste une masse [M] munie d'un rayon [L] animé d'une vitesse [L/T]. Mine de rien on vient de faire notre première analyse dimensionnelle. Si on réunit tout cela on obtient le produit : [M L²/T]. Cela s'écrit également [M L² T-1]. Il se trouve que cette dimension (composite) est représentée par la constante de Planck, ħ, très importante et même centrale en physique. Les fermions on un spin ½ ħ alors que les bosons comme le photon, ont un spin entier ħ. On a l'habitude de dire spin ½ ou spin 1. Cette vue « mécaniste » de rotation est maintenant abandonnée car on considère que l'électron de masse me et de rayon λe, de période te, serait animé d'une vitesse périphérique plus grande que celle de la lumière c. C'est une des raisons qui ont poussé les physiciens du début du siècle dernier, à abandonner l'approche physique « classique » au bénéfice de l'approche « quantique ». Cette approche, très mathématique, se permet de poser le spin non pas comme un paramètre physique mais comme un « opérateur » mathématique. Quelque part, cette approche a permis de s'affranchir des obstacles physiques tout en apportant certains résultats appréciables. Ce sont ces résultats concerts qui ont convaincu, bien que certains comme Einstein et votre serviteur, ne se satisfont pas de cette abdication. Dans le cadre de du modèle OSCAR, le spin est non seulement classique mais totalement expliqué sans aucune ambiguïté ! Son existence est d'ailleurs contrainte dans le boson-oscillateur (fait de deux tachyons qui s'annulent). Mais avant de parler de cela nous allons montrer ce qu'est réellement (physiquement) un boson élémentaire. Nous allons faire ce que l'on appelle l'ontologie du boson. On aura compris que le tachyon est une des deux entités du bosons. Le bosons cumule les deux demis spins des tachyons ; ½ + ½ = 1.

Question 11 Mais si les deux tachyons se rapprochent et s'éloignent dans une dimension spatiale (1D) comme une corde élastique, d'où vient le spin, la rotation ?

Réponse 11 : nous verrons plus loin, qu'une fois les boson-oscillants (faits de deux tachyons et d'un point zéro central, un fois donc qu'ils auront fusionné, ces derniers seront forcés de s'infléchir et donc de prendre une allure hélicoïdale. Cela revient à tourner. Et on verra comment est levée l'énigme de la vitesse périphérique. Mais revenons au BEC. Les boson-oscillants auront tendance à former un BEC mais comment ? Tout simplement en fusionnant leur points zéro. Avant cela chaque point zéro était le lieu (flou) où se jouait un paradoxe : dans un cycle (aléatoire) l'impulsion moyenne (masse × vitesse) et la masse évoluent à l'inverse de l'amplitude, alors vers le point zéro la vitesse tend vers l'infini ! Comme l'infini (physique) n'existe pas, le système se prémunit en proposant une vitesse arbitrairement grande à chaque cycle. C'est la probabilité (le hasard) qui décide. Ainsi la masse du tachyon ne passe pas par zéro. Alors on pourrait dire qu'il existe donc bien une énergie minimale… Et bien non car cette masse, proche de zéro (mais pas zéro), s'équilibre (s'annule) avec celle de son alter ego. On a bien un zéro relatif dual tout en évitant l'impossible zéro absolu ! Le PAN est sauvé, vive la dualité. Ainsi, lors de la fusion des points zéro (un grand nombre), la synchronisation de tous les oscillateurs a lieu car elle est plus économe en énergie. La moyenne des paramètres du lot aléatoire devient des paramètres constants. Le condensat de Bose Einstein consiste en une distribution centrale (point zéro commun) de couches de tachyons qui se succèdent....Le point zéro central émet et réceptionne alternativement les couches de tachyons. C'est un BEC de boson-tachyons, plus fondamental que ceux (de niveau atomique) que l'on sait faire en laboratoire.

Question 11 bis  les paramètres physiques sont-ils bien ajustés pour que le BEC soit équilibré ?


Réponse : bien sûr que non puisque cette fusion est gouvernée par l'aléa. On a donc la formation d'un BEC typiquement instable. On montre qu'il y a toutes les chances pour que ce BEC soit saturé. Mais cette saturation (surdensité) se résout automatiquement par mitose. Ce BEC premier se divise jusqu'à ce que la densité soit adéquat pour l'équilibre. On retrouve ici les origines de la mitose qui est une base fondamentale de la biologie.  

Question 12 : comment fonctionne ce BEC ?

Réponse : le mot clé est « synchronisation ». La fusion d'un grand nombre aléatoire de points zéro revient à les synchroniser. Ce phénomène tendant à synchroniser les oscillateurs de toutes sortes (mécanique, quantiques électronique, biologie) est bien connu des physiciens. Cela veut dire que le point zéro commun émet régulièrement des couches (2D) de tachyons. Ainsi l'amplitude auparavant 1D devient une amplitude groupée formant des couches 2D. Les couches « montantes » croisent ainsi en permanence des couches descendantes formant ainsi une sphère 3D. On voit également que la notion de synchronisation est essentielle en biologie. Par exemple, c'est la synchronisation de chaque cellule musculaire du coeur  qui fait que celui-ci se contracte pour faire office de pompe. Statistiquement, si chacune des cellules se mettait à "battre" à son propre  rythme, sans s'occuper des autres,  l'ensemble s'annulerait et donc ne fonctionnerait plus. La mort par cette perte de synchronisme, est bien connue des biologistes.     

Question 13 : la synchronisation se fait sur quelle base ?

Réponse : tout simplement sur la moyenne des paramètres auparavant aléatoires du lot synchronisé.

Question 14 : mais comment l'aléa peut-il construire un BEC équilibré ?

Réponse : on a vu dans la réponse 11 que l'aléa se traduisait par une saturation ou surdensité. Cela se traduit par un phénomène simple et fondamental ; les intervalles entre tachyons d'une couche sont plus petits que la taille corpusculaire. Cela déclenche à la fois la mitose et vient dérégler la période propre des oscillateurs. C'est au terme de la mitose que les BEC-fils trouvent un équilibre, i.e. quand la densité répond strictement aux lois (connues) des BECs. 

Question 15 : quelles sont les conséquences de cette saturation ?

Réponse : Elles sont immenses. La réponse est double. Dès l'émission de la première couche, une division (mitose) s'amorce. Cependant, des fusions locales s'amorcent entre tachyons voisins (localité) de la première couche. Les tachyons voisins sont distribués en charges alternées (+, –).

Question 16 : On a donc deux sources d'élargissement des intervalles élémentaires ?

Réponse : oui la fusion des tachyons voisins élargit les intervalles élémentaires ainsi que la mitose. On verra plus loin qu'il existe une troisième source d'élargissement, liée au taux d'annihilation. En tous cas, il faut bien comprendre que tous les phénomènes décrits ci-après, se passent d'une manière quasi simultanée.

Question 17 : mais si les tachyons voisins de la première couche fusionnent, cela ne change-t-il pas les paramètres physiques qui règlent l'oscillation ?

Réponse : oui et c'est fondamental ! la fusion augmente radicalement la masse groupée des oscillateurs et donc augmente la période de ces oscillateurs fusionnés (selon la racine carrée de la masse). On prouvera plus loin que ceci est l'explication fondamentale de la masse (fossile) de PLANCK.

Question 18 : quelle est le rôle de la première couche ?

Réponse : nous allons montrer que la très faible part que représente les tachyons de la première couche, va devenir la matière. Le reste (ultra majoritaire) est dévolu à l'espace-temps. Mais revenons à la synchronisation. On a vu qu'elle fixe les constantes {masse-espace-temps} sur la base de la moyenne du lot aléatoire. Ainsi la période des oscillateur-tachyons est fixée à : te = 10-21 s. Dans ce temps très court, chaque tachyon parcoure R = 1021 m, le rayon du BEC. La vitesse des tachyons (co) est ainsi 1033 fois celle de la vitesse de la lumière (c). Ainsi la masse du tachyon est ξ3 = 1033 fois plus faible que celle de l'électron. On démontre, sur la base des relations physiques connues, que lors de la mitose du BEC originel, les tachyons de la première couche, subissent une déflation de vitesse, à la hauteur de ce ratio. Dans le même temps la masse des tachyons de la première couche subit une inflation de masse qui les amène à devenir des paires d'électron-positrons.

Question 19 : mais alors les paires voisines d'électron-positron s'annihilent aussitôt en fusionnant ?

Réponse : Et bien non.... car elles sont de sources fossiles différentes. Arrive ici la notion fondamentale de non localité ! Les paires voisines ralenties on un lien causal distendu avec leur alter ego fossile (tachyon de la paire originelle). Le modèle prouve – toujours sur la base des équations connues – que ce lien est matérialisé par le champ gravitationnel. En revanche, la fusion, qui se fait sur la base du champ coulombien, est ultra puissante.

Question 20 : cela veut dire que la dichotomie boson-fermion doit être revue à l'aulne de la non localité ?

Réponse : exactement car toutes les expériences locales que l'on a pu faire ne donnent des résultats dont la validité est uniquement locale. C'est la raison pour laquelle la plus grande découverte physique du siècle dernier, la non localité de l'intrication est si mal comprise par une majorité de physicien. Pourtant BELL et BOHM ont assez dit que l'univers est non local. Le choc est si grand que l'on a préféré éluder la non localité. Le malaise perdure. Ainsi les paires électron-positrons fossiles – typiquement de fabrication non locale – se comportent localement comme des bosons. C'est exactement le contraire de ce que l'on peut expérimenter localement !!

Question-réponses - 21 à 30

Question 21 : cela veut dire que la fameuse itération {expérimentation locale – théorie} est loin d'être rigoureuse ?

Réponse : absolument, la physique d'aujourd'hui – qui élude la non localité – n'a aucune chance de sortir du champ limité (mais lucratif) de la technologie locale. La fameuse phrase de l'école de Copenhague « ne pas chercher à comprendre » vient poser un couvercle de plomb sur la recherche des causes de l'univers. Elle veut se contenter de décrire sans jamais rien expliquer.

Question 22 : revenons aux tachyons fusionnés de la première couche. Quelle sont les conséquences de l'inflation de masse ?

Réponse : la fusion locale de tachyons non locaux revient à une condensation locale de bosons. Le point le plus important est le suivant : la fusion de type pair des charges alternées (+, –) revient à un condensat de type local neutre et instable. Les charges disparaissent (somme algébrique) et donc le lien causal non local disparaît. Cela veut dire que les paires de tachyons peuvent vivre chacune de leur côté sous forme de paire électron-positrons fusionnées. L'amplitude du nouveau lien causal, divisé par ξ3, passe de R (voir réponse 18) à la longueur de Compton de l'électron, λe, strictement dans le même ratio ξ3.

Question 23 : mais si les tachyons de la première couche ralentissent, que deviennent les tachyons des couches suivantes ?

Réponse : il faut déjà voir que la première couche montante ne représente que 1/ ξ3 de l'ensemble des couches. Ensuite, comme la mitose est simultanée, il faut considérer la vitesse radiale de mitose, c'est-à dire le déplacement radial des points zéro séparés. La vitesse de mitose s'aligne sur la vitesse résultante de la première couche.

Question 24 : mais comment se passe la mitose ?

Réponse : le modèle montre qu'elle suit la règle de Fibonacci (8/5) qui affine le nombre d'or dans le cadre d'une suite formant fractale comme beaucoup de mitoses connues. En fait la mitose se traduit par une émission (éjection radiale) à chacune des homothéties, à la célérité c. Le modèle montre que cela créé un champ radial de vitesses d'expansion, formant un spectre de 0 à 6c. La mitose se traduit par des couches d'immenses BECs enchevêtrées, formant espace-temps. La matière issue de la seule première couche, est entraînée et se concentre en nuages dans cet univers en expansion. Nous verrons plus loin, comment se construit exactement l'espace 3D + spin à partir du tissu de tachyons 1D. On utilisera exactement les règles qu'imposaient le principe d'action nulle, aux tachyons stochastiques.

Question 25 : mais alors ces condensations locales sont des neutrons-protons ?

Réponse : oui mais nous allons montré que ces protons fossiles seraient restés énormes si un certain nombre d'événements ne se seraient pas produits.

Question 26 : ces événements sont inventés pour la bonne cause ?

Réponse : pas du tout car ce modèle n'invente rien, il suit scrupuleusement la logique imposée au départ par le principe d'action nulle (PAN). Par exemple, le ralentissement des tachyons en cours de fusion, provoque leur annihilation partielle. En fait, l'oscillateur non perturbé, possède des paramètres physiques qui permettent le lien causal non local (la charge) sans cependant s'annihiler. Si en revanche, les tachyons sont ralentis, alors l'annihilation radiale est possible. Les relations physiques mesurables, montre que le taux d'annihilation primordiale est déterminé par la constante de structure fine (α=137,035999..). Le modèle montre que α = f(ξ3) et que donc logiquement le taux de ralentissement influence ce taux d'annihilation.

Question 27 : Mais alors combien de facteurs jouent pour élargir les intervalles élémentaires du BEC fossile ?

Réponse : Il existe trois facteurs d'élargissement de la section élémentaire fossile.

- la fusion qui au départ concerne potentiellement ξ2 paires électron-positrons (c'est exactement la masse de Planck).

- l'annihilation 2D soit α².

- la mitose en ξ2 BECs qui élargit la section élémentaire de cette valeur.

Dans le détail on peut montrer que l'intervalle élémentaire final est matérialisé par la longueur d'onde de Compton de l'électron. le proton est constitué de 4 groupes de 460 éléments soit 920 paires nues dont la taille est l'intervalle élémentaire divisé par 460. La mitose augmente donc l'intervalle fossile du facteur ξ. Mais l'annihilation augmente ce taux d'un facteur α.

Question 28 : Cela veut dire que l'image fossile de la longueur d'onde de Compton est le rayon classique de l'électron qui est α plus petit ?

Réponse : Oui mais au facteur ξ près. En fait la section vidée par l'annihilation et par la fusion possédait le rayon de Bohr (fossile). Ramené à la valeur actuelle, le rayon de Bohr est l'intervalle élémentaire entourant un proton. Cela explique l'énigme du rayon classique et le rayon de Bohr. A l'origine, l'équivalence énergétique électrique et de masse, est strictement vérifiée. C'est pour cela que l'école de Copenhague a capitulé devant la physique (d'où cette phrase honteuse pour un chercheur , il ne faut pas chercher à comprendre) pour aller vers l'abstraction de la théorie quantique que le grand Einstein a toujours rejeté malgré ses succès indéniables (mais limité à l'échelle locale).

Question 29 : Alors donc la masse de Planck, bien que maintenant expliquée, n'a pas de réalité car elle est une projection potentielle du monde sans mitose ?

Réponse : Oui car sans mitose, le proton pèserait 1022 masses électrons plutôt que 1836,15.

Question 30 : En réponse (27) on parle de 1840 masses électron. Est-ce compatible avec les 1836,15 mesurées ?

Réponse : oui car il s'agit d'électron nu. On sait que l'électron servant de référence est habillé de particules virtuelles et le modèle montre que pour le proton ces électrons fusionnés ont une masse légèrement inférieure qui explique cette mesure. De plus le modèle montre en détail et avec mesure à l'appui, que le proton comporte 4 couches d'électron-positrons neutres sous forme d'ondes sphériques + 1 positon célibataire qui explique la charge du proton. Les quatre couches forment 3 intervalles qui induisent 3 quarks. Cela explique également pourquoi les quarks n'ont pas d'existence hors confinement. Le même modèle explique l'anomalie du moment magnétique qui reste une énigme pour le modèle standard qui se limite à décrire.

Question-réponses - 31 à 41

Question 31 : et le temps et la longueur de Planck, même illusion ?

Réponse : oui car le seul argument dimensionnel est insuffisant pour fixer la valeur d'une constante qui par ailleurs n'est pas vérifiée par la mesure. Seul le moment de masses est exact car on a : masse électron × longueur Compton = masse tachyon × R. La longueur de Planck n'est donc pas ξ² fois inférieure à celle de l'électron mais seulement ξ fois. Elle représente exactement le rayon du corpuscule tachyon-électron (rt). Le temps de Planck n'existe pas car le temps propre de l'électron est scrupuleusement le même que celui du tachyon (synchronisé). Si la longueur de Planck (lP) est ξ fois inférieure à celle du tachyon, le temps de Planck (tP) est ξ fois supérieur à l'intervalle du genre temps qui sépare deux couches. On a égalité des produits : lP × tP = rt × te.

Question 32 : On a toujours deux valeurs pour la longueur ?

Réponse : oui c'est la cause de la fameuse dualité onde-particule. Tout vient de l'oscillateur-tachyon qui a un corps et une amplitude de vibration. A cause de l'échec de la mesure du rayon classique, l'école de Copenhague à décrété arbitrairement que le corps électron avait un rayon nul ! C'est une véritable imposture de mathématiciens qui ne comprennent rien à la physique. Cela représente deux erreurs fondamentales : a) l'arbitraire , b) la nullité d'un rayon physique. Alors on a inventé des êtres mathématiques tel qu'un spin ayant un moment magnétique...sans en avoir. En effet, un moment cinétique ou quantité de mouvement sans rayon n'a aucune signification physique. Ainsi la constante h a deux statuts incompatibles entre eux.

Question 33 : mais pourquoi les unités de Planck sont-elles ainsi évoquées sans prudence élémentaire ?

Réponse : parce que Planck a fasciné ses confrères avec sa fameuse constante de Planck h qui résolvait tout comme par magie.

Question 34 : Il reste au moins cela comme bénéfice venant de Planck ?

Réponse : non il y a de nombreux apports intéressant par ailleurs. Mais s'agissant de cette constante h c'est encore une erreur fatale, bien qu'elle « marche » parfaitement.

Question 35 : Comment cela une erreur qui marche ?

Réponse : Le modèle OSCAR démontre que la magie de h vient du fait qu'elle ne représente que l'électron (ou le tachyon). On peut réécrire toutes les équations régies par h, en la remplaçant par les paramètres du tachyon, qui est le fondement de tout dans cet univers. Mais las, comme le positron (local) s'annihile, qu'il existe un rayon classique non mesuré et que la dichotomie boson-fermion est consommée, alors h revêt un habit de sauveur. La fascination de la magie..... Le moyen âge n'est pas très loin.....Si h permet de raccourcir élégamment les équations, elle cache lamentablement son origine physique.

Question 36 : Les physiciens parlent du spin mais ne nous parle jamais de son origine. D'où sort-il ?

Réponse : l'origine du spin vient du comportement des tachyons formant l'espace-temps dans les BECs (enchevêtrés). Le spin est une conséquence directe de la construction de l'espace-temps qui est la structure subquantique de l'univers. Nous rejetons fermement l'idée de l'appeler « vide » qui ne veut absolument rien dire en physique. Le spin et la structure de l'espace-temps sont inséparables. Ainsi, la non localité de l'état du spin en découle directement. On trouve ici le détail du fonctionnement du BEC. En résumé, on a le schéma suivant. Dans chacun des BEC-fils équilibrés, on a un point zéro commun des oscillateurs qui matérialise le centre de la sphère. Chaque oscillateur conserve sont fonctionnement dicté par le principe d'action nulle. Ainsi, la vitesse des couches montantes, décroît en 1/r². Dans le même temps, la surface des couches s'accroît en . Cela veut dire que la densité reste constante en tout lieu. Les lignes de tachyons chargées suivent la loi de Lorentz et donc toutes les charges alternées se repoussent (voir dessin). Ils s'en suit que pour conserver les intervalles réguliers, les trajectoires sont contraintes de s'infléchir en hélicoïdes. C'est cela qui créé à la fois des volumes élémentaires réguliers + le spin. D'entrée de jeu on voit bien que ce ne sont pas les particules qui ont un spin (comme par enchantement dans le modèle standard). Ces volumes élémentaires – par le flux montant et descendant – ont une somme vectorielle nulle de spin. Comme un électron (fusionné neutre ou pas) occupe forcément un de ces volumes, sa charge annule une des composantes subquantiques et il révèle donc le spin qui lui est attribué. Si c'est un neutron, cela ne change rien car les charges internes sont distinguables du point de vue subquantique. Si c'est un boson alors le spin est entier car il « embrasse » un oscillateur entier.

Question 37 : En quelque sorte les paires électron-positrons, issues des paires de tachyon-oscillants liées de la première couche, se trouvent séparées ?

Réponse : oui mais cette séparation est du genre imaginaire. La somme des liens radiaux particuliers (charges tachyons) devient ainsi un champ tangentiel commun. Son gradient est très faible en regard de celui du champ coulombien, c'est la gravitation.

Question 38 : pourquoi ce champ est-il faible ?

Réponse : Tout simplement parce que la charge fossile en jeu est celle des tachyons. On se souvient que celle-ci est proportionnelle à la masse est son intensité est ξ3 fois inférieure à la charge élémentaire de l'électron.

Question 39 : Oui mais on sait que le champ gravitationnel existant entre une paire électron-positron est ξ4 fois plus petit que son champ coulombien, alors d'où vient ce ratio ξ entre ces deux rapports ?

Réponse : on parle ici de gradient et il faut donc tenir compte de l'intervalle élémentaire fossile qui est devenu ξ fois plus grand par la mitose (voir question 27). cette relation, que tout le monde peut vérifier, donne bien un facteur ξ4. Attention cependant car la relation physique connue, montre que ce ratio est légèrement atténué par le ratio d'annihilation α.

Question 40 Donc c'est la séparation des paires qui fait la gravitation ?

Réponse : oui et c'est pour cela que le ralentissement (inflation de masse) fait échouer la majorité de ces séparations, ce qui provoque l'annihilation. En 1D son ratio est de α, en 3D il est donc de α3.

Question 41 mais comment se passe précisément l'annihilation ?

Réponse : cette illustration vaut mieux qu'un long discours. On voit bien qu'à chaque étape de la mitose, la majorité du nuage de matière a tendance à se rencontrer. Il faut bien distinguer la mitose des couches majoritaires de la distribution de la première couche. La mitose ne provoque pas d'annihilation car elle consiste en un déplacement radial des points zéro séparés. Les rencontres ne sont pas de même source originelle. En revanche, le nuage de matière est majoritairement brassé vers l'intérieur pour chaque étape (homothétie). On voit bien que l'angle tourné vers l'extérieur (axe radial) est assez improbable. Ainsi les galaxies épargnées par l'annihilation, sont très rares. Par exemple l'angle relatif entre la galaxie d'Andromède et la nôtre est très faible. La rencontre est prévue dans plusieurs milliards d'années. Le modèle montre que lors de la mitose, le nombre de galaxies rescapées est de 1/α3 soit un ratio de plus de 107.

L'enchainement de cas (1) pour les 6 homothéties est assez  rare. Il correspond à un maxima à la vitesse d'expansion 6c.  L'enchainement moyen du cas (2) est le plus probable et sa  moyenne est de l'ordre de 1/2 (6c - c) = 2.5 c. Il produit de la matière noire à faible et moyenne échéance (annihilation partielle par collisions dont l'angle est significatif). Selon le modèle, nous sommes plus proche du cas (3) où la résultante radiale (expansion) est assez faible. Cette zone observable, typiquement en retard d'expansion,  présente donc logiquement une accélération car la moyenne (2) est un puissant attracteur. L'énergie sombre est liée au carré de la moyenne (2.5c)² et donc  l'énergie sombre,  1/2 (2.5c)² = 3.12 fois l'énergie noire + visible. C'est bien ce que rapporte le satelletite PLANCK ! Sombre = 76% ; Noire = 20 %
; Visible = 4%. Or on vérifie bien : 76/24 = 3.12..      

Cependant ce ratio ne concerne que les paires en rencontre frontale, i.e. dont l'angle vaut 180°. C'est la condition indispensable pour une annihilation complète.

Questions de 42 à 54 + encart sur la biologie


Question 42 qu'advient-il des paires dont la collision ne correspond pas à un recouvrement total des paires d'origine (fossiles) soit un angle plus petit que 180° ?

Réponse : c'est une des clés fondamentales de ce modèle. L'annihilation n'est complète que pour un angle relatif fossile de collision de 180° (π). C'est une conséquence directe de la localité. Des paires voisines sur la couches du BEC fossile peuvent fusionner sans s'annihiler car l'angle relatif est quasi nul. L'annihilation complète ne peut concerner que des rencontres strictement opposées, donc comme les tachyons opposés des oscillateurs d'origine.

Question 43 Quelle forme prend la matière issue de ces collisions à angle non nul ?

Réponse : pour bien comprendre il faut se rappeler que la matière n'est faite que de paire électron-positrons dont l'origine est tachyonique. Comme elle évolue dans l'espace-temps (pas le vide comme cela est souvent dit naïvement) de tachyons, on peut comprendre qu'il existe un lien harmonique fort entre ces deux entités de même source. Donc la matière visible se révèle par des émissions spontanées (sauts hyperfins) par la fameuse longueur d'onde de 21 cm de l'hydrogène. Mais pour la matière ayant subi une annihilation partielle, le lien harmonique est rompu. Cette matière devient noire à l'échelle cosmique.

Question 44 Donc séparation = gravitation + annihilation + matière noire ?

Réponse : oui et c'est bien ce que l'on observe. Tout cela relève de la notion très importante de localité. On verra également que la mitose fractale est la cause de l'expansion et de son accélération (locale).

Question 45 On voit bien qu'il y a cohérence dans la levée des énigmes mais les physiciens ont besoin de confirmation. Des mesures précises viennent-elles confirmer tout cela ?

Réponse : non seulement des mesures précises viennent confirmer mais de plus le modèle OSCAR apporte une exigence accrue s'agissant justement de la rigueur de la mesure.

Question 46 Comment la pratique actuelle de la mesure manque-t-elle de rigueur ?

Réponse : à première vue la démarche itérative entre la théorie et la mesure apparaît comme saine, mais, s'agissant de l'étude l'univers, elle est totalement inappropriée car elle omet d'inclure le fameux critère de localité dans l'opération de mesure. Pourtant BOHM et BELL l'ont clamé haut et fort, l'univers est non local. La majorité des physiciens élude totalement le problème crucial de localité. Les expériences menées par ASPECT sur la non localité de l'intrication ont déclenchées la crise la plus importante de la physique. Elle amenait à penser que la cohérence de l'information de l'état de spin entre deux particules intriquées et très éloignées, circulait nettement plus vite que la lumière. Certains pensent que cela est résolu par l'approche quantique de la réduction du paquet d'ondes. Il n'en est rien car cette approche n'admet pas de variable temporelle dans son algorithme. Ce n'est donc résolu que par défaut. De plus cette approche amène à conclure à une information instantanée ce qui n'a aucun sens en physique ! Ainsi, on considère à tort que ce qui est valable pour le local l'est également pour le non local. Ce comportement est irresponsable car il nie la mesure de non localité de l'univers. Il est vrai que tant que l'on travaille sur le local (la technologie par exemple) ce problème n'apparaît pas. La rigueur – pour l'étude des fondements de l'univers – serait de vérifier la validité de toutes les expériences locales, à l'aulne de la non localité de l'univers.

Question 47 Si j'ai bien compris, les bases fondamentales de la physiques sont à remettre en cause ?

Réponse : pas toutes mais par exemple la dichotomie standard faite entre boson et fermion est totalement arbitraire sans le critère de localité. C'est lourd de conséquence car cela bloque totalement les chances de comprendre l'univers.

Question 48 Donc quand on voit que les paires électron-positrons fabriquées localement s'annihilent, on en déduit qu'il est impossible qu'elles puissent fusionner pour former un baryon, c'est bien cela ?

Réponse : oui si on n'imagine pas que l'immense majorité des paires sont de fabrication non locale. L'expérience de nature uniquement locale est trompeuse et très incomplète. Elle manque de rigueur. Voilà à quoi on s'expose quand on élude la plus grande découverte du siècle (la non localité de l'intrication).

Question 49 Revenant à la mitose fractale en 6 homothéties. Comme la division élargit les intervalles élémentaires, on devrait en trouver des traces dans notre monde quantique mesurable ?

Réponse : ces traces existent et elles sont nombreuses. Il y a des manifestations mesurées de l'échelle subquantique. Par exemple quand le neutron devient proton par l'émission d'un électron, on mesure l'émergence fugace d'une particule que l'on appelle boson W. Le modèle montre que son énergie mesurée avec précision est liée à une longueur α3 fois plus petite que la longueur élémentaire λ. Le modèle montre que 5 bosons (en tout) représentent des résonances à ce niveau. Parmi ces 5 on retrouve avec grande précision celui que l'on nomme boson de Higgs. 

Encart sur la cause des régulations essentielles du vivant

A partir des seules prémisses liées au principe d'action nulle duale (PAND), on a vu que quatre notions physiques fondamentales se dégageaient :

On sait que le vivant ne peut fonctionner que sur la base de la régulation physico-chimique duale par le subtil équilibre entre deux actions contraires. Pour chacune de ces fonctions régulatrices, l'inhibition ne joue que lorsque la symétrie est parfaite. D'où vient cette notion forte de dualité sinon de notre mère-univers ? Comme pour l'espace-temps subquantique, il s'agit d'un jeu à trois ; la dualité + la perturbation. La symétrie de l'oscillateur est parfaite quand la perturbation est nulle. Mais la symétrie du système complet {oscillateur + perturbateur} tend toujours à l'être. Dans le vivant, tout déséquilibre physico-chimique (perturbateur) est compensé par une asymétrie dans l'action duale de régulation. C'est exactement ce qui se passe quand le monde quantique perturbe le monde subquantique. Une réaction subquantique (asymétrie de l'oscillateur) se produit et prend des formes diverses et variées (bosons de jauge, effet relativiste, neutrino, particules virtuelles, rayons cosmiques, etc...). Les unes sont fugaces (boson de jauge) et les autres plus durables (neutrino, particules virtuelles ou anomalie du moment magnétique).

La mitose biologique dans sa forme simple (reproduction exacte avec perte de densité) est héritée des fondements de l'univers, c'est une conséquence directe du principe d'action nulle duale.

Enfin on sait que la synchronisation, essentielle à la vie, est un phénomène spontané, lié à la notion d'oscillateurs individuels mais partageant une structure commune. Cette synchronisation fait forcément suite à une fusion. 

L'oscillateur dual stochastique est composé de deux tachyons liées et en opposition. Le paradoxe réside dans le fait que sa forme imaginaire ne s'acte qu'après séparation causale. Sa forme liée est du domaine du réel mais qui s'annule alors que sa forme séparée est du domaine de l'imaginaire pur. La forme intermédiaire se traduit par des manifestations de l'espace-temps, mesurées sur le comportement des particules. Dans le vivant, la forme intermédiaire représente les flux correctifs nécessaires qui tendent à optimiser la santé du sujet concerné. Dans les deux cas, les violations de symétrie ne sont qu'apparentes si on tient compte des réactions aux perturbations.

Question 50  Mais alors dans la parfaite symétrie duale de chacun des oscillateurs stochastiques (le néant dynamique), qui joue le rôle de perturbateur ?

Réponse : Dans cet état d'univers primitif, le perturbateur est représenté par la conjugaison : {absence d'écoulement du temps + combinatoire de fusion des points zéro}. En fait la notion de "point zéro" revient à la notion d'oscillateur dual. L'oscillateur dual est la forme normale d'un zéro car il est forcé de fluctuer sans aucune énergie. On note qu'en biologie, l'évolution multicellulaire est toujours le résultat d'une fusion de vies unicellulaires.  La fusion (dans tous les domaines) est synonyme d'économie d'énergie. Cependant dans l'univers primitif, la notion d'énergie est remplacée par la notion étendue de  thermodynamique, la notion d'entropie de désordre. Le spectre étendu de toutes les fréquences, par l'opération de fusion-synchronisation, se réduit à une seule  fréquence. On dit que le BEC ainsi formé est plus "froid" ou moins agité que l'état stochastique qui l'a précédé. Cette notion d'ordre est régi par une loi logarithmique à partir de laquelle, le modèle justifie l'existence du muon et de la famille des pions. Mais le refroidissement (fondement de tous les types de BEC) représente la source d'énergie globale de cet univers en expansion dont on sait que son entropie va croissante. Ainsi ce désordre croissant est la flèche du temps dont la finalité (désordre maximum) est le retour à l'état stochastique non connexe. Ainsi l'énergie de refroidissement du BEC primordial est strictement rendue par toutes les formes d'énergie transitant dans cet univers. Dans tous les axes et dans tous les états d'univers, la notion d'énergie est strictement annulée car le bilan global est strictement nul. La nullité de ce bilan global a une contrainte incontournable : il ne peut pas y avoir de rayonnement (3D) dans un espace global. Cela veut dire que la bulle univers doit évoluer dans une infinité d'espaces 1D non connexes. C'est exactement ce à quoi nous avait conduit le principe d'action nulle duale (PAND). On voit que le concept de dualité est très puissant et qu'il s'applique également à l'univers global. En fait on montre qu'il s'applique partout, sans aucune exception.

 Question 51 Ces traces ne sont détectées qu'au seul niveau subquantique 1/α3 alors que l'on attend un ordre 6 (1/α6)?

Réponse : non car au niveau 1/α, on a également la projection fossile du rayon classique. On ne peut rien détecter à ce niveau car cette projection se manifeste à la longueur de Compton, donc α fois plus grande, pour l'électron et pour la longueur élémentaire. Mais cette taille intermédiaire existe réellement dans le puits subquantique de l'espace-temps, bien qu'elle ne corresponde à rien de mesurable pour la particule électron. Pour être clair, c'est au stade fossile (BEC primordial) que l'énergie de masse de l'électron est strictement égale à son énergie électrique. Ensuite le modèle montre qu'à 1/α2 on a les éléments pour calculer le rayon du proton. Puis à 1/α4 on a les éléments pour donner la durée de vie du neutron et à 1/α5 on a les éléments pour le calcul de masse du proton.

Question 52 Il manque l'ordre 6 ?

Réponse : non car ce niveau est mesuré lors de l'émission des rayons cosmiques d'énergie maximale. Comme l'énergie-masse varie en 1/r, on trouve au niveau (1/α6) le ratio d'énergie max des rayons cosmiques. Selon le modèle, les BECs très serrés représentant les étoiles du bulbe galactique, induisent une surdensité des tachyons, comme pour le BEC originel mais à moindre intensité. De ce fait, des tachyons sont éjectés dans le monde quantique (sous forme d'hélium 4). Leur énergie relativiste mesurée est celle attendue par le modèle.

Question 53 Est-ce les seules traces relevées qui correspondent au monde subquantique ?

Réponse : non car le modèle montre comment le muon, les pions, etc..., sont des résonances particulières liées au monde subquantique ultra majoritaire. Il montre également avec une précision inédite (14 chiffres significatifs) d'où vient l'anomalie du moment magnétique de l'électron. Il y a en fait un très large faisceau de preuves qui convergent fortement vers le modèle OSCAR.

Question 54 Et le spin d'où vient-il ?

Réponse : le spin est expliqué par les oscillateurs formant le réseau subquantique. La même explication concerne également la cause de ce maillage de volumes élémentaire, liée à la non localité de l'univers et notamment à l'intrication de l'état de spin de paires, conservée à l'échelle cosmique. C'est vraiment la mesure la plus convaincante du modèle OSCAR. En effet le modèle est justement basé sur le fait que ce sont les oscillateur-tachyons qui fournissent le spin aux particules. Or ces oscillateurs sont tous naturellement intriqués entre eux. Il n'y a donc rien d'étonnant que les particules – fortement couplées au tissu subquantique – conservent leur intrication à distance cosmologique (BEC). Il est important de rappeler que l'on observe un tremblement des électrons que l'on appelle le zitterbewegung. C'est la preuve directe que l'électron est soumis aux trajectoires hélicoïdales alternées des tachyons.

Suite 5

Encart sur la notion d'infini en physique


Il faut être prudent avec la notion d'infini en physique : son domaine de validité ne concerne que les nombres ou lorsque les paramètres physiques tendent vers zéro. L'indistinction souvent faîte entre l'abstraction mathématique et la physique, ressemble fort au piège dans lequel tombent les adeptes de Copenhague. Ces derniers oublient souvent que les êtres mathématiques inventés pour représenter la physique, ne sont que des abstractions qui n'ont pas de réalité. Le représentant de l'auteur n'est pas l'auteur; décrire n'est pas expliquer.

Donc je le répète, cette notion d'infini physique, rejoint celle de certains chercheurs du sérail qui envisagent un espace infini. On voit bien la différence entre un espace constitué (maillage doté de paramètres physiques) et une infinité d'oscillateurs non connexes.

Pour mieux comprendre cette "chose" stochastique il faut justement voir ce qui se passe aux frontières {probabilité ↔ physique} quand approche le zéro (physique) de l'oscillateur. Un peu comme l'a montré Dirac, l'approche du zéro physique engendre un spectre infini de probabilités. C'est la réponse ultime d'un système qui n'a (forcément) pas les moyens d'atteindre des valeurs infinies de paramètres physiques.

Par exemple, quand la masse tend vers zéro, la conservation de l'impulsion exige que la vitesse tende vers l'infini. Cette exigence étant impossible, la réponse obligatoire est de fournir un spectre de probabilité infinie, de valeurs minimales possibles pour la masse de départ du nouveau cycle. En quelque sorte, le zéro flou sauve la physique des infinis impossibles. Ainsi, grâce à cette masse minimale – toujours différente de zéro – correspond une vitesse initiale différente de l'infini.

Ce raisonnement se retrouve très précisément dans le monde quantique mesurable. Comme il est doté de constantes, alors la valeur minimale est toujours représentée par h (i.e. les paramètres de l'électron hérités des tachyons). De cela découle la dualité onde-particule.

Revenant à la première phrase de ce commentaire, il faut voir que l'expression "toujours été" est également empreinte de confusion. Le monde pré-quantique non connexe n'ayant pas d'écoulement du temps, l'expression "toujours" perd de son sens. Que se passe-t-il quand il y a absence de temps? La combinatoire du monde fluctuant tend vers l'infini. Cela revient à dire que la probabilité de fusion (synchronisation = constantes) devient unitaire.

On retrouve ici, le même raisonnement que celui du zéro flou (voir aussi Dirac). Le zéro physique engendre un spectre infini de probabilités de conditions de départ. On peut dire également : " le flou du zéro physique engendre un très grand nombre de probabilités. C'est cela et rien d'autre qui détermine le régime stochastique. 


Question 55 Les « cordes » oscillateur-tachyons sont très longues et comment le prouver ?

Réponse : la longueur des oscillateur-tachyons est celle qui matérialise le rayon du BEC (1021 m soit 150 000 années-lumière) alors que leur taille transverse est de 10-24 m. Il y a là un ratio ξ4/α = 1042 qui est strictement le même que celui bien connu, existant entre l'énergie coulombienne (la charge électrique élémentaire) et l'énergie gravitationnelle d'une paire électron-positron. Cette relation est connue et elle signe le ratio d'augmentation de masse (donc charge) tachyon → électron qui est de ξ3 mais actualisé par l'augmentation de l'intervalle élémentaire ξ/α (la mitose) ce qui fait bien ξ4/α. Il faut noter qu'il existe bel et bien un halo autour des galaxies, révélé par la matière noire. Or la taille de ces halos, est compatible avec le ratio avancé.

Question 56 En résumé, les causes des grandes énigmes comme :

1/ la gravitation (l'origine)

2/ le rayon classique de l'électron

3/ la fusion dans le proton

4/ pourquoi le proton

5/ l'expansion de l'univers

6/ la masse noire

7/ l'accélération de l'expansion

8/ la notion d'inertie

9/ la notion de temps

10/ la notion d'espace

11/ la notion de charge électrique élémentaire

12/ la courbe asymptotique de la force forte

13/ la cause de la dichotomie lepton-baryon

14/ la dichotomie espace-particule

15/ la taille du BEC

.et les 33 questions résolues du modèle, ont la même source et le sont d'une manière quantitative et qualitative.

Réponse : oui la source commune est le PAND. Il existe cependant un certain nombre de détails non encore explorés et donc non résolus. Mais par exemple le rôle de la charge électrique est particulièrement intéressant.

Question 57 La cause profonde de la charge électrique est elle expliquée dans ce modèle ?

Réponse : oui. On se rappelle du fameux principe d'action nulle (PAN) dans le cadre du principe fort de dualité (PAND). L'oscillation initiale d'un point zéro dual quelconque répond au principe de moindre action. Il faut bien comprendre que la notion de dualité implique de facto, une notion de causalité réciproque. Il faut impérativement l'existence d'un lien entre les deux tachyons miroirs. Ce lien est le champ électrique d'échange entre les deux charges électriques contraires. Comme admis par la communauté scientifique, la charge élémentaire élevée au carré, vient du produit de la masse de l'électron par son rayon (classique), à une constante (unitaire) près. C'est exactement ce qui est à la base du fonctionnement de l'oscillateur-tachyon-dual. Le carré de la charge est le reflet de l'amplitude multipliée par la masse du tachyon. Plus l'amplitude augmente, plus la masse augmente et donc plus la charge augmente. Le principe d'action nulle dual (PAND) ne peut s'exprimer que s'il existe un champ électrique. En gros, il fait office de l'élastique dans l'oscillateur dual. La fonction définie dans le livre de référence dit ceci :

1/ il existe trois types de zéro. Le zéro mathématique absolu, strict et abstrait. Le zéro dual, strict mais relatif et le zéro physique asymptotique (jamais atteint).

2/ Au zéro physique (interdit) correspondrait une célérité infinie de chaque tachyon. Donc il existe un spectre étendu de zéro approximatifs (flous) possibles pour chaque valeur initiale de cycle.

3/ A chacun de ces zéros, correspond une vitesse initiale d'éloignement des protagonistes (tachyons). C'est la définition profonde du régime stochastique. Aux limites de la physique, le zéro-flou génère la notion de probabilité matérialisée par un spectre infini de paramètres initiaux.

4/ la masse et la charge varie linéairement comme l'amplitude spatiale 1D. Mais chaque paramètre {longueur, masse, charge}, lorsqu'il est divisé par le temps fabrique des variables que tout le monde connaît à savoir ; la vitesse, le débit massique (l'impédance) et l'intensité (le courant). Ainsi si {longueur, masse, charge}, varient en ordre 1 (linéaire), le temps varie en fonction des ces 3 paramètres et donc varie en ordre 3. On montre ainsi que {vitesse, impédance, courant}, varient tous en 1/r² car en mode « ordre » cela fait espace (1) – temps (3) = 2.

4/ La fonction montre que la variation en 1/r² de la vitesse, permet d'éviter les valeurs infinies qui seraient contraires au principe d'action nulle.

Question 58 Donc le principe d'action nulle (PAN) est déterministe ?

Réponse : oui et on a vu qu'il existe deux autres déterminismes universels qui découlent du principe d'action nulle. Le second concerne les probabilités de fusions entre oscillateurs dans le cadre du non écoulement du temps consolidé. Le troisième concerne l'inéluctabilité de la synchronisation des oscillateurs fusionnés (de tous types par ailleurs). L'état stochastique d'univers compense son non écoulement de temps par le jeu des combinaisons très étendues des probabilités de fusions. Cela ressemble fort à la définition du zéro flou de l'oscillateur dual. En effet, quand la fonction approche du zéro physique, apparaît alors un spectre étendue de paramètres aléatoires servants de nouveau point de départ pour le cycle suivant. D'une manière triviale, on peut dire que le zéro physique se défend en créant un spectre étendu de valeurs aléatoires. Tout sauf le zéro absolu dont le miroir est l'infini. C'est en fait la destruction de la courbe lisse de la fonction. Elle se traduit en lignes brisées brisées de type fractal. Dans cet état stochastique, le fait que le temps n'existe pas globalement, se traduit irrémédiablement par une probabilité unitaire de fusion-synchronisation → constitution d'un BEC instable.

Question 59 Revenons à l'ontologie de la charge élémentaire. Peut-on dire que la continuum masse, espace, temps doit être prolongé avec la notion physique de charge ?

Réponse : non car la charge n'est qu'une induction de l'espace et de la masse (élémentaire). En revanche, on peut dire que son existence est – comme pour les autres paramètres fondamentaux – directement imposée par le principe d'action nulle duale. On a vu que le « rien » est condamné à osciller et que pour ce faire, il fallait des paramètres de base évoluant dans une fonction stochastique dans le cadre fort de dualité.

Question 60 Si le PAND ne peut se passer d'oscillateur et que le temps consolidé ne s'écoule pas alors la probabilité de fusion est inéluctable pour former un univers et pourquoi pas plusieurs ?

Réponse : oui mais avec la subtilité suivante ; si le lot aléatoire de fusion est trop petit, alors l'univers échoue à se développer dans toute sa complexité. Il y a donc des loteries successives qui finissent par aboutir. Il faut bien comprendre que durant la vie d'un univers quantique (né de la fusion-synchronisation), le temps s'écoule durant un temps limité (compté en milliards d'années). Donc la probabilité (quasi nulle) de former une autre bulle-univers-quantique, reste quasi nulle.

Questions 61 à 70

Question 61 Mais d'où vient ce temps cosmologique qui s'écoule provisoirement ?

Réponse : L'univers quantique est la somme des particules nées de la première couche par séparation causale généralisée, évoluant dans le tissu d'oscillateur-tachyons formant l'espace-temps. Cet ensemble est lié par le champ fossile faible (gravitation) des tachyons de la première couche. Il forme un oscillateur géant. En quelque sorte, l'oscillateur tachyon avait une période liée à la racine carrée de sa masse (tous les oscillateurs fonctionnent comme cela). Les masses liées par la gravitation, résultent d'une transformation massique de l'oscillateur particulier. De l'augmentation de masse, résulte une diminution de la fréquence. Les chiffres précis indiquent que la période de l'univers est de 30 fois l'âge actuel. Il existe donc un temps subquantique et cosmologique qui sont de même source.

Question 62 La séparation causale (la perte du lien) est totale ou pas ?

Réponse : non tout ce qui est absolu est interdit en physique. Là il faut appeler la notion d'imaginaire. Inutile de faire des mathématiques pour cela car c'est bien la physique qui a inventé cette notion.

1/ on a vu que tout est oscillateur (la matière, l'air, le vivant, etc...). Or l'oscillation est une sorte de voyage temporel dans un cercle.

2/ dans ce cercle, on peut voir le lien radial de chacun des oscillateur-tachyons.

3/ la séparation causale se voit comme une perte particulière radiale au profit d'un gain collectif tangentiel (le long du cercle). Cette rotation de 90° est appelée imaginaire pur. Ainsi la séparation radiale des particules au profit du lien (faible) tangentiel, leur donne une existence propre prolongée. Le taux de cette prolongation est proportionnelle à la racine carrée des masses unies.

4/ La somme des gradients (la part unique d'intervalle d'une particule créée) se retrouve sur la totalité du demi cercle et représente toutes les influences radiales des liens fossiles tangentiels. Autrement dit, pour qu'une particule puisse visiter son alter ego (à l'opposé du BEC), elle doit passer par toutes les autres. Ce lien tangentiel entre électron-positron est faible car il est basée sur la charge intrinsèquement faible de son ancêtre tachyon. On a vu que la masse-charge de l'électron est ξ3 fois plus élevée que celle du tachyon. Mais on a vu également que l'intervalle a grandi d'un facteur ξ. Or le ratio électrique/gravitationnel mesuré sur une paire électron-positron est bien vérifié à ξ × ξ3 = ξ4. Voilà exactement d'où vient la gravitation, c'est le lien fossile tangentiel entre particules. Donc la séparation causale consiste en une rotation de π/2 que l'on appelle imaginaire pur.

Question 63 Donc avant la séparation causale les masses des tachyons sont réelles mais strictement annulées par son lien radial et après séparation directe, les masses sont imaginaires mais non localement annulées ?

Réponse : oui la réalité des masses des tachyons est relative puisqu'elles sont annulées par le lien causal. Elles sont réelles dans le référentiel tachyon et nulles dans le référentiel oscillateur-boson. Mais le référentiel tachyon n'est pas exprimable à cause du lien causal.

Question 64 Comment s'exprime le principe d'action nul sur les particules quantiques ?

Réponse : le nouveau lien causal est la gravitation. Si les éléments d'une paire électron-positron issue du même oscillateur (donc local), se rencontrent, ils s'annihilent complètement. Mais pour se rencontrer, il faut contourner un angle de 180° (π), ce qui n'apparaît pas possible dans un cercle où les deux particules s'éloignent l'une de l'autre. Mais rappelons-nous la figure fractale qui montre qu'a chaque étape de mitose, des directions opposées se trouvent en vis à vis relatif (π) dans le cadre d'un angle global bien plus petit que π. C'est donc pour cela qu'une forte annihilation primordiale s'est produite.

Question 65 Oui mais que se passe-t-il si l'angle relatif est plus petit que π ?

Réponse : cette question est fondamentale car elle explique directement la masse noire. La masse noire est une masse imaginaire non pure car elle est partiellement annihilée. Elle perd son harmonie fondamentale avec le tissu subquantique et de ce fait, ses noyaux d'hydrogène perdent leur capacité d'émission spontanée à 21 cm. Ce type d'annihilation partielle (analogique) ne peut pas être observée localement. C'est la raison pour laquelle la notion d'expérimentation doit inclure le critère de localité. Mais pour cela il faudrait prendre en compte la fameuse expérience de non localité, réalisée par monsieur ASPECT et théorisée par monsieur BELL et BOHM. Il faudrait mettre en cause les concepts de l'école de Copenhague et là, on assiste à une forte résistance des réductionnistes.

Question 66 Revenons à la réponse 41 et la légende du dessin qui évoque la fameuse énigme de l'énergie sombre. Est-elle comparée à l'énergie de masse des particules (m c²).

Réponse : oui et il faut expliquer pourquoi on compare de l'énergie d'expansion ½ m c² à m c² , l'énergie de masse. Il faut se poser la question, pourquoi l'énergie de masse n'est pas la moyenne (½) de quelque chose qui aurait évolué entre zéro et c ? La réponse est donnée par la source (transformation du tachyon) dont la vitesse initiale est très largement supérieure à c. C'est la preuve que l'origine n'est pas zéro. A chaque étape de mitose la vitesse absolue et initiale des électrons est c.

Question 67 Oui mais il devrait y avoir un effet relativiste, en principe, selon Einstein, la vitesse c est interdite pour une particule?

Réponse : Einstein a raison mais il n'explique pas pourquoi (il en est très conscient). En fait, l'effet relativiste ne se révèle que pour une vitesse différentielle entre particule et tissu d'espace-temps. Mais à chaque étape de mitose, l'éjection des particules est égale à celle des tachyons formant espace-temps et le tout, à célérité c. Pour être plus précis, la mitose (tachyons formant espace-temps) à tendance à se faire à la très grande célérité des tachyons. On se souvient que le ratio {somme des couches / première couche} est très précisément égal au ratio de masse {électron/tachyon}. Cela veut dire qu'il y aurait parité inertielle entre les deux. Mais comme la masse des tachyons formant tissu d'espace-temps, est nulle dans le référentiel boson, c'est la célérité c des paires électron-positrons qui régit la vitesse de séparation par mitose.

Question 68 Alors que signifie l'énergie de masse (E = m c²) des particules ?

Réponse : Pour comprendre cela il faut se rappeler deux éléments. Le premier est que la constante h est l'expression du moment cinétique de l'électron (lui-même issu du tachyon). Ainsi l'universalité de h vient qu'il est construit avec la masse du tachyon (mo) multipliée par son amplitude (R), multiplié par l'intervalle élémentaire (λe) et divisé par le temps élémentaire (te). Cela revient exactement au même de considérer la masse de l'électron tournant comme un manège à la vitesse c autour du rayon λe que l'on appelle longueur de Compton. L'oscillateur tachyon (comme une corde linéique) est devenu l'oscillateur électron-positrons mais en rotation. Ainsi on peut comprendre la signification profonde de E = m c² en posant : h / te. Pour être plus précis, quand l'amplitude du tachyon s'exprime sur R (150 000 années-lumière) dans le temps élémentaire te, l'électron (ou le positron) fait un tour sur son rayon λe. L'électron est strictement synchronisé avec le tachyon de l'espace-temps dans lequel il évolue. Un électron est forcément situé dans un des intervalles existant entre deux tachyons (longueur de Compton). Il vibre à la célérité c entre les extremums et sa rotation est confondue avec avec cette vibration. Il n'y a donc pas d'effet relativiste pour ce mouvement. Cette vibration est bien mesurée et elle porte le nom de zitterbewegung (froussard en allemand).

Question 69 Cela veut dire que l'effet relativiste ne se révèle qu'au dessus de cette longueur d'onde de Compton ?

Réponse : oui et l'on pourrait dire en dessous du temps élémentaire te. La mise en vitesse d'une particule revient à la sortir de l'entre deux (l'intervalle) entre deux tachyons. Dès le début de la mise en vitesse, un delta t vient désynchroniser la particule du tissu d'espace-temps. Tout se passe comme si la particule quittait en avance le cycle de l'intervalle précédant. Cela revient à réduire le temps élémentaire des tachyons. Ces derniers « résistent »* à cette augmentation de fréquence en transférant de l'inertie du niveau subquantique au niveau quantique.

*le mot exact est impédance (M/T) et non résistance.

Question 70 Mais n'a-t-on pas dit que l'inertie résultante des tachyons est nulle ?

Réponse : oui et cela reste vrai tant que la symétrie du boson-oscillant (deux tachyons) n'est pas perturbée. Quand un électron est mis en vitesse, il tend à accélérer le mouvement (donc réduire le temps élémentaire te d'un des deux tachyons d'un oscillateur) et l'annulation stricte ne peut se faire. Un des tachyons voit son amplitude se réduire et donc sa masse moyenne devient différente de celle de son aller ego.

Cette perte de symétrie spatiale se compense très exactement en ajoutant de l'inertie à l'électron mis en mouvement. C'est cela la cause physique de l'effet relativiste. Einstein l'a mis en équation en regrettant de n'avoir pas compris la cause. Décrire n'est pas expliquer et Einstein en était parfaitement conscient. Malheureusement beaucoup de ses adeptes contemporains, se contentent de la (certes belle) rigueur mathématique de la description sans même se poser la question portant sur l'explication des causes. Pire, d'aucuns pensent que cette description «explique» les causes. En cela, ils suivent les recommandations des « maîtres » de l'école de Copenhague, « ne pas chercher à comprendre » et trahissent ainsi la pensée d'Einstein qu'ils croient honorer.

Questions 71 à 81 + 82 à 85

Question 71 Quelle est la limite d'extraction de masse du niveau subquantique ?

Réponse : la relation standard, par une extension faite sur la base d'arguments de nature exclusivement mathématique, nous dit que la limite est infinie. C'est faux pour deux raisons. La première a déjà été évoquée ici, l'infini physique ne peut exister. La seconde raison, tient au fait que cette théorie n'ayant pas travaillé les causes, a aucune chance de trouver la solution par simple extension de nature mathématique. Dans le cadre du modèle OSCAR, la taille minimale du tachyon (taille corpusculaire de l'électron) est connue et n'a pas la valeur ridicule de zéro. Par rapport à l'intervalle quantique élémentaire λe, le ratio est donné par ξ qui est la conséquence précise du nombre de mitoses, ξ². Ainsi comme on sait que l'énergie varie en 1/r, l'effet relativiste maximum possible est donc ξ² = ξ fois la masse au repos.

Question 72 Peut-on mesurer cela ?

Réponse : oui avec les rayons cosmiques. L'énergie maximale (boson hélium 4), mesurée dans les rayons cosmiques, montre que c'est bien ce ratio qui amène la limite. Le modèle standard n'a aucune idée de la cause de ce rayonnement intense. Le Modèle OSCAR, n'a nullement besoin de chercher quelque hypothèse supplémentaire mais applique tout simplement les règles du PAND. Le centre des galaxies, est le lieu où les BEC-fils sont très denses. Il se produit (à moindre échelle) le même phénomène que lors de la saturation initiale, à savoir une séparation causale de tachyons. Mais là, l'éjection à célérité c n'est pas covariante avec le tissu d'espace-temps. En effet celui-ci est déjà en place et n'a pas de vitesse radiale significative. On a donc un effet relativiste – lié à cette vitesse différentielle – dont la limite est celle qu'attend logiquement le modèle.

Question 73 Revenons au lien harmonique entre le tissu d'espace-temps et les particules. Est-ce que cela est mesuré ?

Réponse : oui par plusieurs biais qui sont des énigmes pour le modèle standard mais des preuves pour le modèle OSCAR. On se demande pourquoi la sonde Pionner 11 ralentit au-delà de ce que le calcul le prévoit. Elle subit une faible décélération en fonction linéaire de la vitesse radiale d'éloignement du soleil. Or le soleil (comme toute étoile) est au centre du BEC qui l'héberge. Le modèle montre – qualitativement et quantitativement – que cette décélération vient du lien harmonique tachyon-électron. Cette faible valeur n'apparaît pas pour des distances courtes où l'influence des planètes est prédominante. Il y a même l'explication (quantifiée avec 14 chiffres significatifs), concernant l'anomalie du moment magnétique de l'électron.

Question 74 Le modèle MOND dit qu'il existe une force additionnelle à la gravitation qui explique également l'énigme de rotation des galaxies. Que dit le modèle OSCAR à ce sujet ?

Réponse : il existe en effet une force additionnelle à la gravitation mais elle n'est pas du tout celle proposée par le modèle MOND qui nie la matière noire (DM), faute d'explication. Cette force additionnelle est la même que celle qui agit sur Pioneer. Concernant l'énigme de rotation des galaxies, voici l'explication OSCAR. Toujours dans le cadre précis du PAND et de la mitose du BEC primordial en ξ² BEC-fils, les galaxies sont formées d'amas d'étoiles, chacune étant hôte du centre de centre de son BEC. On a ainsi un enchevêtrement serré de BECs qui, globalement, ressemble à une bulle. On a déjà vu que le centre des galaxies présente une saturation des tissus de tachyons. Celle-ci induit des séparations causales qui sont à l'origine de la création de matière observée. Une partie se manifeste en rayons cosmiques et une autre se transforme en matière noire. Comment ? Exactement comme pour le BEC primitif, des collisions (à angle moyen) amènent des annihilations partielles (analogiques). On a vu que la matière noire perdait un peu de sa force de couplage avec les BECs. De facto, étant moins solidaire de la masse des BECs enchevêtrés, elle migre vers l'extérieur sous l'action de la force centrifuge. Mais elle a tendance à se libérer aux limites de la bulle galactique. Cela crée un cisaillement (une rupture de densité) aux limites du BEC. Or c'est exactement cela qui est observé avec, en prime, le rayon du BEC prédit par OSCAR.

Question 75 Mais comment l'enchevêtrement des BECs agit-il sur la rotation alors qu'ils sont sensés ne pas avoir de masse ?

Réponse : ils n'ont pas de masse seulement si aucune perturbation ne se manifeste. Ici ce n'est pas le cas car – outre l'effet de la masse visible – la vitesse radiale de migration de la masse noire est assez conséquente. Il y a donc perturbation et donc manifestation inertielle. Le système bulle + DM, étendu et massique, est la cause de la perturbation de rotation des galaxies.

Question 76 Mais que trouve-t-on au-delà des limites de la bulle galactique ?

Réponse : on trouve encore et toujours, des enchevêtrements de BECs mais ceux-là sont très distendus.

Question 77 Pourquoi les BECs intergalactiques sont-ils très distendus ?

Réponse : toujours pour la même raison : la liaison entre BECs enchevêtrés dépend de la densité de matière qu'ils contiennent. Or les vides intergalactiques ne contiennent que la matière noire évacuée par les galaxies. Compte tenu du ratio de volume, la densité est très faible. Les vides noirs intergalactiques sont remplis de photons à 2,73 Kelvin qui représentent la grande majorité de matière annihilée.. Les filaments de galaxies visibles ne sont que les rescapés de la grande annihilation primordiale.

Question 78 Mais comment l'expansion peut-elle s'exprimer tout en conservant les volumes élémentaires constants ?

Réponse : On a vu que la mesure de l'effet Pioneer dépendait linéairement de la vitesse radiale. Donc entre deux BECs enchevêtrés la force de cohésion dépend de la vitesse radiale de déchevêtrement. C'est un phénomène extrêmement régulateur qui tend à homogénéiser le taux de déchevêtrement. On aura bien compris que l'expansion s'exprime par le déchevêtrement, conservant ainsi intact les volumes élémentaires de chaque BEC.

Question 79 Comment les photons circulent dans le tissu d'espace-temps en expansion ?

Réponse : On a vu que le temps élémentaire quantique te est donné par la période du cycle des oscillateur-tachyons subquantiques. Ainsi le photon entre et sort d'un volume élémentaire quelconque, au rythme précis de cette période. Il progresse donc ainsi à la vitesse : c = λe / te.

Question 80 Cette propension du BEC à freiner Pioneer et donc ramener les masses vers son centre s'explique comment ?

Réponse : la cause est toujours la même, la perturbation de symétrie globale de l'oscillateur-tachyon. C'est la même règle que celle des tachyons stochastiques originels. Or on a vu que c'est l'amplitude des tachyons qui matérialise le rayon du BEC. C'est une très faible force constante et additionnelle à la gravitation. Elle tend à disparaître vers le centre où les écarts de symétrie sont moindres. Elle crée donc une résultante de force dirigée vers le centre du BEC. C'est ce que l'on observe avec Pioneer. De plus elle dépend linéairement avec la vitesse radiale. Cela s'explique par le fait que le couplage d'une particule embrasse un plus grand nombre de tachyons (distance) par unité de temps.  C'est encore une manifestation du principe d'action nulle dans la dualité de l'oscillateur (PAND).

Question 81 A-t'-on d'autres biais d'observations qui vont dans ce sens ?

Réponse : oui par exemple le temps extrêmement court de la formation des étoiles et des galaxies, primordiales, a été observé. Dès la fin de la mitose, un BEC contient suffisamment de particules pour former une étoile. La masse de matière contenue subit la force de gravitation + la force centripète du BEC. Pour la part du nuage près du centre, la part additionnelle joue un rôle très minoritaire. Mais à l'échelle du BEC (loin du centre) on a vu que la seule gravitation condense une étoile en un temps au moins 5 fois plus important que celui constaté. Une autre question (jamais posée) consiste à savoir pourquoi ce « moule » étoile ? Revenant au calcul gravitationnel il faut savoir que la force varie au carré de la distance. Or la bulle BEC fait 150 000 années-lumière de rayon. On montre que la (faible) force du BEC est – à cette distance – domine très largement la force gravitationnelle. Le calcul avec cette force du BEC (celle mesurée sur Pioneer) montre qu'une étoile moyenne se forme en moins d'un million d'années-lumière, ce qui est conforme aux observations. Il est est de même pour la formation des galaxies. Les BECs sont les matrices des étoiles et leur enchevêtrement est réglé pour servir de moule a une galaxie.

Question 82 Selon ce qui est dit précédemment, beaucoup de matière noire est formée dès la fin de la mitose. Que devient-elle ?

Réponse : elle peut former directement des galaxies noires et c'est ce qui explique la multiplicité des effets de lentille gravitationnelle. En fait, les vides intergalactiques entre les étoiles, sont le résultat de la somme des annihilations complètes et des annihilations analogiques. Il existe des observations qui laissent entendre que certaines galaxies naines sont des galaxies entières mais dont la majorité de la matière est noire. Par exemple leur halo (bulles enchevêtrées de BECs) sont plus étendus que ceux des galaxies dont la majorité des masses est visible. C'est encore un biais d'observation qui va dans le sens d'un plus faible couplage de la matière noire. On a déjà observé des traces de galaxies noires. Le modèle OSCAR prédit que ce type d'observation (difficiles) va se multiplier.

Question 83 Mais quantitativement une observation vient-elle confirmer le ratio d'annihilation avancé par OSCAR ?

Réponse : oui car on connaît bien le ratio entre la matière annihilée et la matière visible (rescapée). En fait ce ratio donne le nombre de photons sur le nombre de baryons, soit : 2,36 × 109. Or ce nombre est très proche de : 1836 × α3 / 2 = 2,36 × 109.

Question 83 A-t-on d'autres mesures qui confirmeraient ce scénario de fabrication de matière noire ?

Réponse : oui et notamment ces observations qui mentionnent clairement le lien entre collisions et apparition de matière noire. La figure fractale de la mitose primordiale génère une très grande majorité de collisions frontales qui amènent l'annihilation totale. Mais elle amène également une large étendue d'angles de collisions qui provoque la matière noire. D'autres mesures comme la température des amas de galaxies, viennent également confirmer cela. Connaissant la taille des amas, on en déduit l'angle originel qui sépare deux galaxies opposées sur le diamètre de l'amas. Comme le modèle dit clairement que la seule particule élémentaire est l'électron (issu du tachyon) alors on connaît de facto, sa température d'annihilation. Justement on retrouve un lien précis entre l'angle (donc le taux d'annihilation analogique) et la température des amas en regard avec la température de l'électron. On a également la température inexpliquée de la couronne solaire (environ 1 million de degré Kelvin). Or le soleil coïncide avec le centre du BEC qui émet un débit de tachyons faisant particules de matière. On connaît la taille (donc l'angle) des langues magnétiques qui se recourbent (rencontrent). On retrouve ce même lien précis entre la température de l'électron, l'angle moyen de collisions et la température de la couronne solaire.

Question 84 Le soleil fabriquerait de la matière noire ?

Réponse : oui mais à très faible débit et trahit par la température de la couronne.

Question 85 Mais si le soleil possède une autre source d'énergie que la fusion, on devrait la détecter ?

Réponse : c'est exact et justement, on la détecte fort bien. Le soleil ne produit pas le nombre de neutrinos attendus (il en manque près de la moitié) pour l'énergie qu'il dégage par l'opération de fusion nucléaire. Alors on a cherché des explications avec une éventuelle oscillation des neutrinos. Mais nous montrons que cette voie n'explique pas la carence du soleil en neutrinos électroniques. De plus, comme le neutrino se déplace à la vitesse c, il ne peut pas répondre aux contraintes du modèle standard pour osciller. Encore une fois, on a le tort de ne pas regrouper les énigmes pour espérer trouver une cause commune. Le centre du BEC manifeste ses sautes d'humeur qui sont générées par les nombreuses asymétries de répartition de la matière (planète, ceinture d'astéroïdes, etc...). Par ailleurs, le BEC-Soleil est très enchevêtré avec les BECs des étoiles voisines et même avec tous ceux de la galaxie. Ainsi, toutes les échos de ces asymétries de la galaxie se retrouvent dans la signature de l'émission de chaque centre de BEC (occupé par une étoile).

Encart sur l'effet relativiste

Je rappelle inlassablement que h ≡ me λe² / te, est le reflet exclusif de l'oscillateur-électron. On peut également fixer h à partir du tachyon subquantique, de masse mo, soit : h ≡ mo R λe / te, dans laquelle on peut voir que le temps propre de l'électron (te) est commun à celui du tachyon.

Dans ce laps de temps (te), l'oscillateur électron se contente d'une amplitude λe = 10-13 m, alors que celle du tachyon, matérialise le rayon du BEC (R = 1021 m). Ce ratio est logiquement celui des masses. La non localité de l'univers est là.

Le photon de base est celui qui représente l'énergie-masse d'une paire électron-positron (au repos) soit me λe² / te² = 10-14 Joules ou 511 KeV. Cela montre clairement que l'oscillateur tachyon possède une énergie potentielle énorme Eo ≡ 1/2 mo R² / te². Celle-ci est ξ3 = 1033 fois plus intense à cause de R élevé au carré. Cependant, comme l'énergie varie en 1/r, la partie extractible est limitée à ξ = 1011qui représente le ratio de la dualité onde/corpuscule. La composante masse de ce photon, disparaît totalement car le boson-oscillateur dual qu'est le photon, l'annule parfaitement.

Que se passe-t-il au moment de l'annihilation ? Auparavant les deux fermions étaient chacun en relation avec un tachyon subquantique (spin 1/2). Unis ils forment maintenant un boson oscillant dual (2 tachyons) et de spin 1. Le boson photon est transverse et globalement embrasse tout l'oscillateur-2 tachyons. C'est donc un jeu à quatre !! alors que l'électron (ou le positron) ne jouait qu'un jeu à deux. Ainsi le photon est contraint de se déplacer à la célérité c et il ne perturbe pas la symétrie des tachyons.

Pourquoi le photon est-il contraint à la célérité c ?

Réponse : il suit le pouls (1/te) de l'oscillateur subquantique qui le force à franchir à la suite, les intervalles élémentaires, λe, dans le temps élémentaire, te et chacun sait que c = λe / te. La célérité c est indépassable – au niveau quantique – car elle est dictée par le tempo du tissu d'oscillateur-tachyons.

Oui mais pourquoi l'électron (fermion) ne peut pas circuler à c ? Quand l'oscillateur-électron se déplace lentement, il rajoute une fréquence faible, f à la fréquence propre fo = 1/te. Cette fréquence perturbe l'amplitude d'un seul des  tachyons de l'oscillateur et cela brise la symétrie spatiale avec son alter ego. Il réagit en émettant une énergie-masse imaginaire. On a vu que la réserve d'énergie subquantique est énorme. Au fur et à mesure que la vitesse se rapproche de c, la fréquence additionnelle approche de celle de l'électron et tend à extraire toute l'énergie-masse subquantique. C'est, selon oscar, la cause (jamais élucidée par ailleurs) de l'effet relativiste décrit (pas expliqué) par la relation de Lorentz. Cependant cette dernière ignore qu'il existe une limite à cet effet relativiste et oscar montre qu'elle est donnée par les rayons cosmiques les plus énergétiques que l'on a su mesurer.

Pourquoi mesure-t'-on un ralentissement des horloges atomiques ou un allongement de la durée de vie des muons cosmiques relativistes ?

Einstein et Lorentz ont démontré que c'est une conséquence logique de E = m c² et de la limite de vitesse à c. Mais peut-on donner une explication physique à ce phénomène, en plus d'une simple description mathématique ?

La voici (en mode didactique) selon oscar (toujours concernant un électron relativiste):

1/ on a vu que la perturbation « fermion » diminue l'amplitude spatiale des tachyons concernés.

2/ cela diminue donc l'intervalle élémentaire quantique longitudinal (perte d'isotropie)

3/ l'augmentation de masse tachyon se traduit par une diminution de la fréquence élémentaire et se traduit donc par une dilatation du temps dans le référentiel tachyon-électron. 

4/ le nombre d'intervalles élémentaires augmente par unité de longueur vu l'aplatissement spatial dans le sens du déplacement

5/ le temps élémentaire est affecté comme la racine carrée de la masse (ou espace).

6/ ainsi toute particule éphémère (comme le muon) voit sa durée de vie augmentée par la dilatation du temps, dans son référentiel.

7/ cette dilatation du temps s'étend aux fréquences propres de l'échelle atomique

Précision :  l'impulsion forcée sur l'électron revient à générer une fréquence longitudinale qui "pompe" littéralement la masse imaginaire du tachyon, dans le sillage de l'électron. Par définition cette perturbation allonge le temps et raccourcit l'amplitude tachyonique qui se traduit par l'aplatissement de l'intervalle élémentaire quantique dans l'axe de la progression.  On pourrait s'attendre à ce que l'augmentation de cette fréquence perturbatrice amène une diminution du temps élémentaire. Ce n'est pas le cas puisque la masse imaginaire extraite de cette source oscillante très intense, amène naturellement un ralentissement du temps propre, tout comme pour une corde de guitare où l'augmentation de masse linéique, donne des sons plus graves.

On pourrait dire que l'électron accéléré,  force le passage d'un intervalle à un autre alors que l'onde photon est forcée de se déplacer selon un front d'onde sphérique, au gré de la fréquence des tachyons. L'énergie des particules annihilées retourne ainsi graduellement au tissu subquantique. L'omniprésence du photon (particule) est l'expression de la non localité de l'univers. Cela lève l'objection de certains qui considèrent les photons comme des billes et dont la paradoxe serait la multiplication à l'infini lors de la progression de l'onde, alors que la source donne un nombre limité de photons. Il n'y a pas de paradoxe car la forme corpusculaire n'est pas permanente mais extraite à volonté en tous lieux (liés causalement à la source) du tissu d'oscillateur-tachyons. En fait c'est l'omniprésence de ce tissu qui lève le paradoxe de la mutliplication des photons. La fameuse "réduction du paquet d'onde" vient de la non localité de l'univers, clamée à juste titre par BELL.  

     

 Suite 8 des question-réponses

Question 86 C'est quoi le neutrino pour le modèle OSCAR ?

Réponse : il faut d'abord savoir que la parité nécessite d'avoir des paires de neutrinos, dont le spin est d'hélicité gauche et droite. Or la nature nous cache obstinément les « neutrinos droits ». C'est un grand mystère. La réponse OSCAR est toujours la même : tout est basé sur la puissante dualité entre le niveau subquantique S (oscillateur-tachyons) et la milieu quantique Q (particules). Il existe des dualités {S-S} et {Q-Q}. Fondamentalement une paire tachyon est de type {S-S} alors qu'une paire électron-positron est de type {Q-Q}. Mais en réalité rien n'est purement l'un ou l'autre. Par exemple, le photon est {Q-Q + S-S}. Sa masse apparente {Q-Q} est strictement nulle alors que sa masse transverse {Q-S et S-Q} est celle d'une paire électron-positron. Le photon fondamental est celui généré par une transition d'énergie appelée «annihilation paire électron-positron ». Par le photon, l'énergie est graduellement transmise au milieu subquantique (d'où elle provient). On peut considérer le neutrino (spin ½) comme un oscillateur dual {Q-S} (transverse). Un peu comme le tachyon, sa masse duale s'annule. Ainsi, le neutrino droit est toujours au niveau subquantique. Ce choix est aléatoire mais constant et il dépend de la polarisation du niveau subquantique, véritable miroir du niveau quantique. Sa masse apparente est nulle ce qui lui permet de se comporter comme un photon (à célérité c).

Question 87 D'accord mais pourquoi le neutron émet-il un neutrino dit électronique ?

Réponse : le modèle standard est muet devant cette question car il n'a pas de modèle physique du proton. Or un modèle physique du proton doit expliquer pourquoi et comment le proton existe. Le modèle OSCAR décrit et explique l'ontologie du tachyon et sa transformation (à la marge) en paire électron-positrons. Il explique pourquoi la création à grande échelle (non localité) fait que des paires voisines (fermions) se comportent comme des bosons. Ainsi le proton (stable) est constitué de paires électron-positrons de fabrication non locale. Le modèle montre que le taux d'habillage virtuel est plus important dans le neutron que dans le proton. Lors de la transition l'habillage virtuel retourne graduellement au milieu subquantique. Une partie seulement est visible au niveau quantique. Un peu comme la mer peut receler des bateaux (en surface) et des sous marins.

Question 88 Oui mais on sait faire localement des paires proton-antiprotons, alors pourquoi et comment ?

Réponse : il est vrai qu'en laboratoire, on est plus dans les conditions initiales régnant sur la surface du BEC fossile où c'est le taux de surdensité qui fixe le « poids » du proton. Cependant il faut savoir que la création locale réclame deux conditions :

- la fourniture de l'énergie correspondant à celle de la paire à créer.

- la présence d'un « proton-modèle ».

Selon oscar  l'opération « création locale » se passe comme suit : on injecte l'énergie précise pour créer 1841 positrons et 1841 électrons. Ces éléments se croisent et ainsi séparés, peuvent fusionner pour former 921 électrons + 920 positrons d'un côté et 921 positrons et 920 électrons de l'autre côté. Le premier côté possède : 920 paires neutres et 1 positron célibataire de charge + (proton). Le second côté a : 920 paires neutres et 1 électron célibataire, de charge – (anti-proton). On a déjà vu pourquoi l'électron que nous savons mesurer est « habillé » de particules virtuelles. Les électrons émergents sont nus. Cela explique pourquoi 1841 masses élémentaires équivalentes nues ne font que 1836,15 électrons mesurés  La non localité en laboratoire est artificielle car on force la séparation entre proton et anti-proton car si ces particules se rapprochent, elles s'annihilent.

Question 89 Oui mais pourquoi ne trouve-t-on pas d'anti-proton dans la nature et pourquoi ce rapport avec h (représentant le seul électron) ?

Réponse : Il existe une polarisation aléatoire {subquantique/quantique} qui favorise l'état de confinement du positon et la seule mesure des neutrinos gauches. Si des anti-protons peuvent naître, ils disparaissent car ils sont instables. En revanche, le modèle OSCAR n'a pas besoin de « violer » la symétrie (la première loi de la physique) car la parité entre positrons et électrons est strictement respectée. Cette polarisation du milieu subquantique se mesure également dans la non parité de la désintégration des kaons.  comme vu précédemment  le proton est formé de paires neutres imbriquées  + un positron célibataire et confiné. La résultante des spins des paires emplilées, sous forme "onde", est nulle et ainsi, seul apparaît le spin du positron émergent.    

Question 90 Pourquoi cette polarisation subquantique   ?

Réponse : l'univers est fait en majorité, d'hydrogène neutre, i.e. un proton + électron. Mais cette neutralité n'est vraie que si on la considère au niveau quantique. D'un côté le + est donné par le positron confiné et de l'autre par l'électron presque « ponctuel ». Le proton est un empilement de couches sphériques de charges + et – avec un « + » baladeur et confiné. Globalement, les charges résultantes quantiques se compensent exactement. Mais du point de vue subquantique on a vu que la part de masse virtuelle est différente. Cela fait que la neutralité subquantique n'est pas parfaite. C'est cela qui polarise l'axe quantique/subquantique et qui amène un sens unique pour rendre le positron confiné. Tout le monde aura compris que le sens +/– est arbitraire car conventionnel. On pourrait dire aussi, que cela vient de la différence du couple masse-charge entre le proton et l'électron. On aura la même approche avec le moment de la charge qui est différent. Une autre approche attire l'attention sur la charge surfacique du proton (sphère de rayon rp) qui est différente de la charge surfacique de l'électron de rayon λe. Le puits subquantique du proton peut se voir comme un tronc de cône où le couplage subquantique est de surface beaucoup plus faible que celle du couplage quantique.

Question 91 Pourquoi le modèle standard ne remplace pas le mot « vide », vague et ambiguë, par « subquantique » et pourquoi n'envisage-t-il pas le proton fait de couches de paires non locales ?

Réponse : il existe une ambiguïté entretenue sur ce que l'on appelle les « variables cachées ». Monsieur BELL a dit très justement qu'elles ne pouvaient exister dans le seul cadre de l'équation de Schrödinger. Mais si on élargit ce cadre (voir BOHM et la non localité) alors cette restriction de BELL n'a plus lieu d'être. Mais comme ce problème de localité est très mal compris, on a associé à tort « variables cachées » et « subquantique ». Ainsi, à cause de l'entêtement des réductionnistes, on admet un tissu d'espace-temps abstrait mais paradoxalement on nie son existence physique. Il en est de même pour le proton où la démarche physique est remplacée par la seule abstraction mathématique. De plus il y a toujours cette manie d'expérimenter dans le seul champ local. Du coup la loi de Fermi dont la validité n'est que locale, pose une dichotomie absolue entre fermion et boson et voudrait l'utiliser pour chercher à comprendre l'univers qui est...non local.

Question 92 A-t-on des mesures pour confirmer que le proton est fait en couches sphériques de paires neutres fusionnées dans l'état onde + corpuscule ?

Réponse : oui le calcul oscar montre que le rayon du proton est un état combiné onde/corpuscule. On montre facilement que chacun des 4 groupes de couches possède la longueur d'onde de Compton de l'électron divisé par ce nombre (~ 458). Le second élément de la dualité est représentée par l'aspect corpuscule des quarks qui ne sont qu'un induction des couches d'onde. Toutes les tentatives pour isoler les quarks ont échouées car ils n'existent que sous l'influence des couches. C'est parce qu'ils sont induits qu'ils ne peuvent être isolés.

Question 93 Alors la masse des protons est juste la somme des paires électron-positrons qui les constituent ?

Réponse : oui à l'approximation des particules virtuelles induites. Comme le modèle standard n'a aucune idée de la source de la masse du proton, il a inventé un champ (subquantique), le champ de Higgs. Il considère que la masse du proton vient de là. Mais il ne dit pas d'où vient la masse de ce champ (scalaire). En fait il existe bien une version physique de ce champ, c'est celui du tissu d'espace-temps réalisé par les oscillateur-tachyons dont il est question tout au long de cet ouvrage. C'est bien lui qui donne la masse (éphémère et virtuelle) aux 5 bosons de jauge (dont le fameux W et celui de Higgs). Ces 5 bosons ont été mesurés et auparavant prédits par oscar avec une précision plus grande que celle de la mesure actuelle. Si l'oscillation interne au proton « pompe » de la masse virtuelle, elle est en marge de la masse totale. Cette voie de Higgs est une triste imposture.

Question 94 Mais alors les gluons et le boson de Higgs ?

Réponse : le modèle purement mathématique des gluons est d'une naïveté sans nom. Il existe une expérience qui montre que la force forte est immense et asymptotique. Plus on démasque les couches enchevêtrées plus la force augmente !!! On voit bien qu'il s'agit de la force coulombienne de chaque couche, qui s'annule quand les couches sont totalement enchevêtrées. La force augmente quand on tente de séparer les couches. C'est bien ce que l'on mesure !! Le boson de Higgs est une imposture (pas la mesure) car contrairement à ce que l'on dit, il n'explique en rien la masse du proton. Ensuite, il faut savoir que la prévision le situait dans une large fourchette où on était à peu près sûr de trouver quelque chose. Le modèle oscar prévoit 5 résonances (dont Higgs et W) sous forme de bosons. Le modèle oscar donne (en 2012), sa masse exacte avant qu'elle ne fut découverte et ce avec une grande précision qui reste une prédiction. Les 3 autres bosons (des résonances) ont fait l'objet de mesures publiées mais n'ont par reçus d'affectation standard.

Question 95 Mais alors quand le neutron émet un neutrino, il émet quoi ?

Réponse : la transition neutron → proton émet un électron + neutrino + boson W (fugace). Le neutrino représente le différentiel de masse virtuelle entre celle du neutron et celle du proton. Il voyage à la célérité c le temps qu'il rende cette masse-énergie au milieu subquantique. Ce différentiel massique représente l'asymétrie spatiale des oscillateur-tachyons en relation avec le neutron. Il faut bien comprendre que la masse que nous mesurons est typiquement imaginaire et active, alors que la masse en relation avec les tachyons est réelle mais annulée dans son expression duale. Tout est là, dans le principe d'action nulle dans la dualité (PAND). Ne pas envisager une ontologie physique basée sur l'action nulle, relève de la métaphysique car nul ne saurait justifier l'origine.

Suite des question-réponses

Question 96 Revenons à l'encart ci-dessus, consacré à la cause de la relativité. Si on peut comprendre que l'un des deux tachyons formant l'oscillateur, soit perturbé par la montée en fréquence des franchissements successifs des espaces élémentaires, pourquoi l'amplitude est-elle réduite et pourquoi cette réduction subquantique se reporte-elle sur l'espace élémentaire ?

Réponse : l'amplitude de l'oscillateur dual subquantique se réduit car une partie de l'énergie est induite dans la particule perturbatrice couplée. C'est le principe bien connu d'induction réciproque, dont l'intensité est toujours fonction de la fréquence. Plus la fréquence est élevée, plus le couplage est intense. On peut dire que si la perturbation d'une particule au repos est presque nulle, elle augmente avec la fréquence (directement liée à la vitesse). Si la masse énergie du tachyon augmente par le couplage – dans l'axe de progression – avec l'électron, alors son amplitude diminue. Si l'amplitude diminue, alors l'intervalle élémentaire – dans le même axe – diminue d'autant. Le ratio spatial {subquantique/quantique}reste inchangé et donc l'intervalle élémentaire est raccourci dans l'axe du déplacement. On note ici que le paradoxe des jumeaux est un mythe car comment peut-on envisager survivre avec des électrons relativistes (plus massiques) ? Par exemple, parmi ceux qui forment les 90 % d'eau (hydrogène et oxygène) on trouve l'atome d'hydrogène formé d'un proton et d'un électron orbital. Il serait plat et à toutes les échelles on aurait une image 2D avec des artères si plates que le sang ne pourrait y circuler. On pourrait ainsi décliner tout ce qui rendrait la vie non possible.... ! On se demande pourquoi on continue de parler de ce faux paradoxe. En ce qui concerne la dilatation du temps, il faut savoir qu'elle ne concerne que la particule elle même et certainement pas le temps subjectif, lié à l'écoulement du temps macroscopique (ou cosmique). Il faut souligner qu'Albert Einstein a trouvé ce lien {masse-espace-temps} comme un continuum par la seule déduction à partir de la limite c. Le développement mathématique qui s'en est suivi est excellent sauf en ce qui concerne l'absence de limites physiques (effet relativiste infini). Encore une fois, Einstein était très conscient que cette belle et juste théorie ne répondait pas à son vrai questionnement, à savoir quelles en sont les causes. Le modèle Oscar retrouve ce même continuum dans le tissu subquantique fait d'oscillateur duaux. Chaque oscillateur tend à rester strictement symétrique pour respecter le principe d'action nulle. Dès qu'un des deux membres est perturbé, son amplitude + sa masse + son temps propre,  s'adaptent pour compenser la perte de symétrie. C'est ce tissu qui régit l'ensemble de la physique. Les communicant-physiciens d'aujourd'hui, préfèrent véhiculer au grand public, ce faux paradoxe plutôt que d'essayer de parachever le travail d'Einstein portant justement sur les causes.



Question 97 L'exemple électron est toujours pris car toutes les particules sont filles du tachyon (et donc de l'électron) ?

Réponse : Certaines sont des fusions d'électrons stables et d'autres sont des résonances fugaces. De toutes façons, tout vient de l'immense réserve des oscillateur-tachyons.

1/ les particules stables (on oublie provisoirement l'oscillation des neutrinos) :

- l'électron est né de la séparation des tachyons de la première couche,

- le proton est né de la fusion de paires électron-positrons, de création non locale,

- le neutrino représente le différentiel d'état d'habillage virtuel,

- le photon est le représentant d'une transition d'état d'énergie des particules.

2/ les particules instables :

Elles sont toutes des résonances liées aux couplages avec le milieu subquantique.

- le muon est le résultat d'une résonance du nombre total d'électron-positrons avant annihilation.

- idem pour des particules comme les pions, tau, etc..

- les bosons de jauge sont des résonances liées aux transition d'état des baryons.

Des dizaines d'autre particules entrent dans la famille des instables à courte durée de vie.

Le modèle standard classifie les particules en distinguant les baryons (celles qui induisent des quarks) et les leptons qui n'en ont pas. En fait cet distinction n'est pas fondamentale car le modèle montre que les inductions de quarks sont liées au nombre de groupes de couches dans les particules composites. Plus précisément, le nombre de quarks dépend du nombre d'intervalle qui fixe la polarisation interne. Par exemple le muon n'a qu'un seul groupe et cette absence d'intervalle, n'induit pas de quark. L'expérience locale de création des paires protons/antiprotons, ne représente absolument pas le fondement de l'univers qui est non local. Cette symétrie composite locale est un artefact car elle n'existe pas à l'échelle non locale où les antiprotons n'existent pas. La vraie symétrie qui s'affranchit de la localité, est celle des paires électron-positrons. Cette symétrie est directement héritée des paires de tachyons. La seule asymétrie fondamentale est celle générée par le puits subquantique. C'est parce que ce puits n'est pas cylindrique mais conique. Cette asymétrie induit une polarisation dans l'axe {quantique/subquantique}. C'est cette polarisation (qui se mesure entre autres, dans la désintégration des kaons) qui a choisit aléatoirement le couple {proton/électron} plutôt que le couple {antiproton/positron}. Ce n'est absolument pas une mystérieuse asymétrie de l'annihilation originelle, comme le laisse entendre naïvement, le modèle standard. La symétrie, la localité et le rejet de l'infini, sont les trois grandes bases fiables de la physique. Las, elles sont rejetées d'emblée par les adeptes de l'école de Copenhague qui suivent ainsi la fameuse phrase « il ne faut pas chercher à comprendre ».

Question 98 Revenons à la création locale d'une paire proton-antiproton. Pourquoi ne peut-on pas fabriquer une particule contenant un nombre quelconque de paires électron-positrons ?

Réponse : Il faut déjà savoir que le nombre de paires, correspond pile à l'énergie de création injectée. Ensuite, il existe des particules (selon des résonances intermédiaires) à créer localement mais leur existence est fugace. Pour le proton, il faut savoir que l'opération ne réussit que si on expose un modèle proton à proximité. Cela répond à la question des conditions locales qui sont différentes des conditions non locales. Il faut rappeler que sans la mitose, le proton aurait la masse de Planck. Comme la mitose a eu lieu, alors la masse de Planck est un mythe.

Question 99 L'univers-bulle en expansion accélérée va-t-il vers une taille infinie ?

Réponse : d'abord il faut bien prendre conscience que l'univers est dual. La bulle univers en expansion est entourée d'oscillateur-stochastiques 1D et non connexes. Globalement l'expansion ralentit car l'accélération n'est que locale. L'univers est plus étendu que ce que la vitesse de la lumière peut nous révéler. On a vu que la mitose fractale générait un spectre de vitesse radiale d'expansion de 0 à 6c. Il se trouve que nous sommes plus proches des couches en retard que de l'expansion 6c. Le modèle indique que notre expansion locale est environ à 0,5 c. L'horizon cosmologique nous cache donc les parties (majoritaires) en phase de ralentissement. Ainsi, le ralentissement global est bien vérifié. Encore une fois, le modèle standard est piégé par la non localité de l'univers. Enfin il faut rappeler que la notion d'infini, ne concerne que les nombres et jamais les paramètres physiques.

Suite 10 des question-réponses

Question 100 Comment mesure-t-on ce 0,5 c ?

Partant du BEC primordiale, l'émission de photons à température de l'électron Te s'amortit comme un front d'onde sphérique en 1/r². Or la trace du BEC primordial est observée à environ 7 Giga années-lumières dans la direction de l'éridan. Ce trou vide unique dans l'univers observable représente une énigme pour le modèle standard. Cet immense vide est attendu par le modèle oscar, pour matérialiser le BEC originel fossile. Connaissant le rayon de ce BEC (R) et la température amortie du cosmos, 2,73 K, il est facile de calculer la distance qui nous sépare de lui. Cette distance se révèle être celle mesurée pour une vitesse d'expansion locale à v ~ 0,5 c. De plus, un autre calcul, basé sur le nombre de photons dans l'univers (connu), amène au même résultat. En fait le rayon de Hubble (celui qui donne l'âge de l'univers à célérité c) est obtenu en faisant 13,7 ~ 7 / v. La fameuse température (ou longueur d'onde) du fond diffus, représente la trace fossile de l'annihilation primordiale des paires électron-positrons. Ensuite on peut contrôler avec la densité de photons (mesurée) et leur nombre total  ξ8 = 1089 que les valeurs sont compatibles dans le 3D.  

Question 101 Mais qu'est-ce qui accélère les parties centrales en retard d'expansion ?

Réponse : toujours cette même force de couplage entre BECs enchevêtrés, via le couplage avec la matière. La vitesse de déchevêtrement des BECs, augmente cette force de cohésion qui lie les parties en avance aux parties en retard, un peu comme un élastique. L'attracteur est la vitesse moyenne qui ralentit par l'action des forces conjuguées {BEC + Gravitation}.

Question 102 Mais on nous dit que l'univers est plat et que par conséquent, l'expansion s'arrêtera à l'infini.

Réponse : cette notion de « platitude » est née d'une abstraction mathématique qui est sensée construire un univers sur les bases de la relativité générale. C'est Friedmann qui a inventé une métrique pour l'univers, qui intègre la fameuse relation {courbure → densité d'énergie} de la relativité générale. Il s'agit d'une extension spéculative de la relativité générale à tout l'univers. Elle paraît résoudre le problème du bord de l'univers en intégrant une courbure faisant ainsi une géométrie non euclidienne. Cette courbure étant générée par l'action gravitationnelle des masses de l'univers. Mais on vient récemment de mesurer cette courbure et la surprise est de taille. Il n'y a pas de courbure, l'univers est plat !!! Plutôt que de remettre en cause cette stupide abstraction, on revient aux fameux couple {zéro et infini}. On nous dit que l'expansion s'arrêtera à l'infini.... en niant les règles de base de la physique. Non nous verrons plus loin que le PAN exige une expansion globale limitée. Le modèle oscar indique que cette courbure est limitée à l'échelle de chaque BEC car elle est locale. Elle ne peut donc être généralisée à l'ensemble de l'univers. On a vu que le rayon du BEC est matérialisé par l'amplitude de l'oscillateur-tachyon. On a vu que toute perturbation amenait à déformer la symétrie de l'amplitude des tachyons. Cela correspond parfaitement à l'équation d'Einstein. Mais bâtir un univers sans autre prémisse physique sérieuse, sur cette seule base, est une imposture. Alors on entend certains se demander pourquoi cette précision miraculeuse qui mène à l'infini ? On sent là les vieux réflexes métaphysiques qui évoquent implicitement une divinité faiseuse de miracle. Non la genèse de l'univers n'est pas réalisée sur les bases de la relativité générale car cette dernière est juste une conséquence locale et non une cause. La cause, abondamment discutée ici, est le principe d'action nulle (PAN), dont la seule expression possible est sous forme d'oscillateur-duaux. On rappelle le mécanisme « partant du PAN» :

PAN → oscillateur-duaux non connexes → synchronisation → BEC → mitose N BECs + particules

Question 103 Mais alors la durée de l'expansion répond à quoi ?

Réponse : déjà elle est sous la contrainte du PAN. Puis, partant de la petite période d'un oscillateur-tachyon, on peut comprendre que l'association (tangentielle) de N oscillateurs groupés, augmente énormément cette période. La matière, dans son ensemble, est un oscillateur géant. La loi des oscillateurs (fonction de la racine carrée des masses), donne la demi période de l'expansion de l'univers. Cela revient à la racine carrée du nombre total d'oscillateurs, soit une durée d'environ 30 milliards d'années.

Question 104 Mais alors comment se résout le problème du bord, que se passe-t-il si je passe le bras en dehors de la bulle univers ?

Réponse : toujours et encore par le fameux couplage {tachyon-électron}. On se souvient que l'énergie (dans le référentiel tachyon) est énorme ξ3 (1033) fois celle de l'électron. Imaginons que nous soyons près du bord de la bulle en expansion et que nous tirions une balle de fusil dans sa direction. Pour influencer l'amplitude des tachyons couplés à cette balle, il faut disposer d'une impulsion dans le rapport donné plus haut. Le calcul montre que le meilleur des fusils ne déformera le bord que de quelques millimètres. Plus la balle est grosse, plus elle mobilise de tachyons et cela ne change rien au problème. Le mur est à jamais infranchissable. Il est (légèrement) déformable et c'est tout. Ainsi le paradoxe du « mur » est résolu. Le PAN est une autre façon de dire cela ; même en admettant l'impossible, soit une particule quittant la bulle, on aurait là un viol du PAN qui ne peut être justifié. Un exemple trivial est la bulle de savon qui résiste au bombardement des particules de gaz (mouvement brownien), s'agitant à l'intérieur.

Question 105 Comment un photon passe-t-il d'un BEC à l'autre ?

Réponse : en premier lieu il faut voir que rien ne passe par leurs bords respectifs, car ils sont enchevêtrés. La progression d'un corps, d'un BEC à l'autre, ne pose aucun problème car le relais se fait graduellement. On quitte un volume élémentaire pour en trouver un autre. Il faut bien comprendre que la géométrie 3D ne sort pas du chapeau ! Elle est une construction faite d'intervalles réguliers où les particules se logent. Pour passer de l'un à l'autre, même à petite vitesse, il faut se conformer à la période des tachyons qui font et défont en permanence ces volumes élémentaires. Dans le monde stochastique extérieur, aucun volume élémentaire n'est construit et il est impossible de progresser. On ne peut que déformer l'amplitude des oscillateur-tachyons synchronisés. Mais on a vu que cette déformation est dérisoire. La bulle univers a un bord dont la dureté est à la hauteur de l'énorme énergie subquantique. Il faut bien voir que tous les BECs sont synchronisés, via la matière qu'ils contiennent. Ainsi le photon passe d'un intervalle à l'autre sans distinction. Il vit à la fréquence qui résonne avec l'ensemble de chaque oscillateur (2 tachyons). Mais s'il devait prolonger une des deux tachyons, sont statut « boson » passerait au statut « fermion », se conformant ainsi à ce qui est dit précédemment. Les particules n'ont pas de vie possible en dehors du tissu d'espace-temps qui n'existe que dans la bulle-univers. Au delà, il n'y a pas d'espace-temps et donc aucun moyen d'investigation via des bosons ou fermions. On pourrait imaginer un intervalle moyen de ces espaces non connexes et donc en déduire une distance infinie puisque le nombre d'oscillateurs est infini. Mais ce n'est pas si simple car tout indique que l'existence de ces intervalles est fugace. C'est un peu comme si on voulait additionner une population faite de morts et de vivants. Si cette sommation mathématique est possible, elle ne représente rien de physique, hors du paramètre temps. Justement le paramètre temps n'existe pas dans cet état d'univers, non connexe et stochastique. L'univers est dual en ce sens qu'il est composé d'un état synchronisé et d'un état stochastique. Quand l'état synchronisé arrive à terme, le temps ne s'écoule plus et même un nombre infini de combinaisons potentielles de fusion, se passe en un temps nul. Cela veut dire que les bulles s'enchaînent car le temps de ces combinaisons ne peut être décompté.

Question 106 Quand on parle de tissu d'espace-temps on attend un maillage dans les 3 dimensions dans lequel aucune direction n'est privilégiée. Comment est-ce possible avec des corde-tachyons disposées dans la seule direction radiale ?

Réponse : oui c'est la question de l'isotropie de chaque volume élémentaire qui est posée. Regardons la direction tangentielle et posons-nous la question de savoir comment un photon progresse-t-'il d'un volume élémentaire à l'autre. Rappelons-nous que ce qui pousse un photon à passer d'un volume élémentaire à l'autre, c'est la période (te) du tachyon qui correspond à un aller-retour dans le rayon du BEC. Ce passage par le centre du BEC est fondamental car il lie aussi bien le tachyon voisin de la même couche, que le tachyon en face sur la couche suivante ou précédente. Attention ces couches successives ne sont reliées entre elles que par le centre du BEC. En effet, l'espace de genre temps entre deux couches, largement plus petit que que la période du BEC, ne joue aucun rôle dans la continuité radiale du photon. Pour le lien tangentielle , comme pour le lien radial, seule la période (te) du BEC, entre en jeu. Ainsi la structure 3D n'est pas innée mais elle réclame beaucoup de conditions :

- des corde-tachyons à trajectoire hélicoïdale (vitesse en 1/r²)

- donc des rayons parallèles

- donc des volumes élémentaires constants

- donc un lien temporel commun transitant par le centre du BEC.

Ce lien temporel – la période te – est à la fois la période du BEC, du tachyon et de l'électron. Elle est clairement mesurée : te = 1,21 × 10–21 s.

S'il n'y a pas véritablement de maille 3D, les contraintes des tachyons, amènent un comportement qui lui ressemble. Autrement dit, les contraintes de ces cordes strictement radiales, amènent l'isotropie observationnelle.

Question 106 bis Que se passe-t'-il au centre du BEC et pourquoi ce nombre précis de couches ξ3,  espacées du laps de temps te/ξ3 ?

Réponse : Compte tenu des contraintes décrites plus haut, le centre de synchronisation est tenu de respecter le ratio des longueurs d'onde, {tachyon/électron} = ξ3 . C'est ce même ratio qui gouverne l'intervalle temps imposé dans la zone centrale de synchronisation. Cette zone centrale transmet toutes les perturbations locales à tout le volume du BEC. Ainsi, ce n'est pas seulement l'intrication du spin qui est non locale. La synchronisation des oscillateur-boson-tachyons, à partir d'un nombre aléatoire de tachyons, doit suivre la règle qui régit les BECs. Cette règle contraint notamment la densité et donc l'intervalle élémentaire. Une fois fixé ce dernier impose ce type de synchronisation en couches successives. Le ratio ξ3 est mesurable dans le rapport existant entre la force électromagnétique et la force gravitationnelle, mais en tenant compte des origines, à savoir l'étirement ξ et l'annihilation α. Chacun peut vérifier ce rapport ξ4/α dans le cadre d'une paire électron-positron.  Ces ξ4/α tachyons disposés sur la circonférence du BEC-0 (1D), se recoupent par plusieurs voies indépendantes et notamment avec le nombre total de photons et la masse de l'univers.

Question 107 Durant l'existence d'une bulle-univers, des combinaisons peuvent se faire et ainsi créer plusieurs bulles  ?

Réponse : oui des combinaisons pourraient potentiellement se réaliser mais elles ont très peu de chance d'aboutir, pourquoi ? Par exemple, notre bulle-univers a une durée de deux fois 30 milliards d'années. Cela paraît beaucoup à notre échelle mais qu'en est-il à l'échelle de la combinatoire pour fusionner 10120 oscillateurs ? Le calcul statistique montrent que dans cette durée de vie, qui ne donne que 1040 oscillations à la période moyenne actuelle, il n'y a pratiquement aucune chance de voir naître une autre fusion significative. Donc les « mondes parallèles » envisagés, sont pures spéculations.

Question 108 A propos de cette énorme énergie subquantique, à quoi correspond l'expérience de Casimir qui défie les lois physiques du modèle standard ?

Réponse : L'expérience semble montrer que le « vide » recèle une énergie énorme et le calcul standard spécule sur un ratio de l'ordre de 10120 à l'échelle de Planck. Tout d'abord le mot « vide » est juste vide de sens. Il s'agit du tissu subquantique d'espace-temps, fait d'oscillateur-tachyons. Ensuite, on a vu que l'échelle de Planck n'existe pas. Elle est donnée à ξ2 fois moins que l'échelle de l'électron alors que le tachyon n'est qu'à ξ fois moins. On se rappelle que sans la mitose, la surface du BEC zéro, aurait collecté ξ2 fois plus de paires. En terme de densité, l'échelle de Planck apporte déjà un ratio de ξ6 = 1067 pour une énergie ξ2 fois plus grande soit ξ8. Puis comme le tachyon est ξ3 fois plus énergétique que l'électron, on a un ratio de ξ11 ~ 10120. Alors d'aucuns voudraient extraire gratuitement de l'énergie du « vide ». Mais selon Oscar ce nombre est ramené à l'échelle tachyon où l'énergie transmissible max est ξ et donc son ratio de densité ramené à ξ3. Mais cette densité veut-elle dire quelque chose ? Non car le tachyon n'est pas corpusculaire mais comme une corde. En réalité son volume est donné par le produit de la longueur de la corde ξ3 par sa section ξ-2 = ξ . On a donc ξ fois plus d'énergie dans un volume ξ fois plus grand. Il n'y a donc rien à extraire gratuitement du vide !! Cependant, on a vu que ce ratio ξ est bien celui mesuré dans les rayons cosmiques. On est là dans le concret. Les rayons cosmiques existent par le fait de la concentration des BECs dans le centre des galaxies. Cette énergie est en fait prélevée à l'énergie potentielle gravitationnelle. Rien n'est gratuit.

Question 109 Si rien n'est gratuit, d'où sort cette énorme énergie des étoiles, des galaxies, de l'univers ?

Réponse : Au départ on a 10120 oscillateurs non connexes qui fusionnent. L'énergie dans le référentiel « boson-oscillateur » est strictement nulle car l'énergie des référentiels tachyons, s'annule. Ensuite la séparation causale fait la matière dont l'énergie-masse est imaginaire. Cela veut dire que la séparation causale a transformé deux énergie réelles qui s 'annulaient en deux énergies imaginaires qui ne s'annulent plus, sauf si les paires se rencontrent à nouveau. Donc la notion d'énergie pure ne veut rien dire si on ne stipule pas son référentiel. Le PAN est exigeant car il veut de l'énergie pour osciller mais sa dualité intrinsèque annule cette énergie. La séparation causale n'est qu'un incident en marge qui ne concerne que 1083 oscillateurs, soit 1037 fois moins que la totalité. Cependant le PAN exige que l'intégralité de cette énergie « volée » soit rendue au tissu subquantique. Déjà les rencontres entre paires – par leur annihilation – forment des photons qui sont les vecteurs du rendu au milieu subquantique. L'intégralité du tissu de la bulle-univers (les tachyons) « savent » exactement où se trouvent les particules de matière (imaginaires).

La séparation causale doit se voir comme un prêt d'énergie qui, à terme, doit être rendu intégralement. Le créancier a délégué un vecteur – la gravitation – pour veiller à ce que les paires séparées (la matière) se retrouvent toutes à nouveau unies, à terme. Or ce terme est régi par les règles de l'oscillateur global représenté par l'union (gravitationnelle) des masses de matière.

Question-réponses (110 à 121) 

Question 110 D'accord l'énergie des référentiels « tachyon », s'annule dans la dualité mais d'où sort-elle, au départ ?

Réponse : On a montré que le PAN est incontournable. Or son existence exige une oscillation (stochastique). Mais pour osciller il faut bien de l'énergie. Mais comme déjà évoqué ici, il faut définir fondamentalement la notion d'énergie. Par exemple, dans le référentiel tachyon, on a une masse qui démarre à presque zéro et arrive à son maximum quand l'amplitude est nominale. L'aller-retour se fait dans un laps de temps (la période de l'oscillateur). On a ainsi une énergie intrinsèque qui ne s'exprime pas puisqu'elle ne diffuse pas hors de ce référentiel. Sans frottement ni rayonnement, l'énergie « aller » est exactement compensée par l'énergie « retour ». Par ailleurs, à chaque instant, les deux énergies des deux tachyons en oppositions, s'annulent.

Question 111 D'accord l'aller est compensée par le retour et le tout est annulé dans la dualité, mais qui donne la première impulsion ?

Réponse : il n'y a pas de première impulsion car il n'existe aucun état statique pour la recevoir. Donc passer de l'état « arrêté » à l'état « oscillant » est strictement interdit par le PAN. Cette vue macroscopique est naïve. Au niveau fondamental, il n'y a rien qui puisse faire bouger un état statique et c'est la raison pour laquelle il est physiquement interdit. On a essayer en laboratoire d'arrêter l'oscillation des particules en les refroidissant énormément. Mais on a vite compris que l'agitation zéro était impossible (asymptotique). Le point de départ est un fantasme macroscopique et la réalité est que le néant est fluctuant à jamais. Non pas parce qu'il existerait une énergie de base « magique » à dépenser mais parce que l'état statique pur est impossible car il appelle la notion d'infini. Le PAN à horreur de l'infini et du zéro absolu. Le PAN appelle la notion de référentiel et de dualité. Au stade fondamentale (ontologique), on ne peut parler d'énergie sans d'abord préciser ces termes. Du point de vue lexical, les termes comme le vide, le rien, le néant, sont triviaux alors que le PAN est fondamental et incontournable. Ce point est très important car il résout l'ontologie de la masse, de l'espace et du temps. Puisque la fluctuation est incontournable alors ces paramètres le sont également.

Question 112 Quelle est la bonne réponse à la question, « d'où sort le temps » ?

Réponse : entre la notion de temps stochastique dans le référentiel tachyon et la notion du temps universel né du début de l'expansion, il y a une évolution a expliquer. Il faut se référer aux évolutions relatées en réponse n° 102. La synchronisation due à la fusion apporte une constante de temps (période du tachyon et de l'électron). Ensuite la séparation causale radiale devient une union (fusion) tangentielle via la gravitation. Cette fusion de masse, se traite comme un oscillateur géant qui par définition, possède une période. Le temps cosmologique est ainsi défini par rapport à la fusion de chacun des temps quantiques, nés des tachyons subquantiques.

Question 113 Quelle est la bonne réponse à « d'où sort la masse» ?

Réponse : entre la notion de masse stochastique moyenne dans le référentiel tachyon et la notion de masse imaginaire née de la séparation causale, il y a également une évolution a expliquer. Dans le cadre des évolutions relatées en réponse n° 102, la synchronisation a rendu constante la masse moyenne des tachyons. Ensuite, la masse des paires électron-positrons (séparation causale) devient imaginaire au sens mathématique du terme. Elle est la matière et son existence est prolongée par l'augmentation de masse. Sa durée de vie est passée de 10-21 secondes à plus de 1018 secondes. L'éjection venant de la mitose c'est faite avec la vitesse intrinsèque c de telle sorte que l'énergie de masse est m c². Mais cette vitesse intrinsèque est différente de la vitesse vectorielle d'expansion et de la vitesse due aux interactions locale. Ces deux types de vitesse, s'additionnent selon une règle mathématique précise.

Question 114 Mais pourquoi cette vitesse intrinsèque à c régit-elle la notion de masse-énergie ?

A chacune des 6 étapes de la mitose fractale, les tachyons de la première couche du BEC-0 se séparent pour devenir des électrons. Ils passent de la grande vitesse co à la petite vitesse c et donc de la petite masse mo à la grande masse me car l'impulsion moyenne est forcément conservée. La figure fractale fait que le spectre de distribution angulaire est complet. Ensuite, au gré des collisions, une résultante globale, met en place des couches d'expansion dont les vitesses s'échelonnent de 0 à 6c.

Question 115 D'où vient cette notion d'inertie ?

Réponse : la masse possède deux composantes, sa composante charge électrique et sa composante inertielle. Cette dernière est indispensable au fonctionnement d'un oscillateur. Elle s'oppose à la fréquence et c'est de leur confrontation que naît la régulation de la période. La composante charge joue le rôle de vecteur du lien causal dual (le ressort).

Question 116 Quelle est la bonne réponse à « d'où sort l'espace» ?

Réponse : quel type d'espace, 1D, 2D, 3D ? En premier lieu, l'oscillateur stochastique n'a qu'une dimension d'espace qui oscille de presque zéro à l'amplitude nominale variable d'un cycle à l'autre. Après fusion-synchronisation l'amplitude devient constante. La zone de fusion, matérialise le centre du BEC sphérique. Cette zone émet régulièrement des couches 2D de tachyons qui croisent les couches en retour. Mais comme la célérité des tachyons (donc des couches) varie en 1/r² et que la surface des couches augmentent en , la densité surfacique des tachyons, reste constante. Et c'est de cela que naît l'espace 3D. Comment ? Cela ressemble au péage d'autoroute où l'on multiplie le nombre de voies pour palier à la baisse de vitesse. Dans le plan, on voit bien que les autos infléchissent leurs trajectoires pour occuper les voies nouvelles. Si on se place dans la sphère du BEC cet infléchissement prend la forme d'une hélicoïde. Ainsi les intervalles tangentiels et radiaux restent constants. On fabrique ainsi des volumes élémentaires constants qui, ensemble, forment l'espace 3D.

Question 117 D'accord mais ces volumes élémentaires sont fait de quoi ?

Réponse : pour comprendre cela il faut d'abord voir quelles sont les conséquences de ces trajectoires hélicoïdales. Chaque volume élémentaire est le siège d'un champ magnétique tournant. Comme des fils électriques parallèles, parcourus par un courant, ils exercent également une force mutuelle par unité de longueur, qui dépend du carré de ce courant. La distribution des tachyons montants et descendants, est alternée entre + et –. L'interaction électromagnétique revient donc à ce que les conducteurs se repoussent entre eux. Donc globalement le mouvement hélicoïdal est accompagné par cette force qui garantit l'équidistance entre les corde-tachyons. La réponse à la question est la suivante : chaque volume élémentaire est représenté par une superposition de champs magnétiques qui s'annulent dans ce référentiel. On montre que les volumes élémentaires sont bien des petites sphères imbriquées. C'est cette imbrication assure la continuité des l'espace-temps. La force électromagnétique de cohésion des corde-tachyons est immense.

Question 118 Mais que se passe-t-il si ce volume élémentaire est occupé par un électron ?

Réponse : s'il est au repos, sa charge perturbe l'équilibre et il ne ressort que l'état de spin (½ h).

Question 119 Cela veut dire que l'électron est couplé avec un oscillateur-tachyon ?

Réponse : pas tout à fait. Il est couplé avec un des deux tachyons de l'oscillateur car c'est un fermion de spin ½. Son moment magnétique porte en lui la perturbation (voir anomalie du moment magnétique de l'électron). C'est la même chose pour le positron célibataire et confiné dans le proton et c'est pour cela que son spin est strictement égal à celui de l'électron.

Question 120 Mais que se passe-t-il si ce volume élémentaire est occupé par un photon ?

Réponse : Le photon est un boson de spin entier et on a vu qu'il ne pouvait être au repos. Son statut lui permet d'être couplé avec les deux tachyons de l'oscillateur subquantique. Il vient qu'il extrait naturellement un état de spin, h entier.

Question 121 Les expériences qui prouvent la non localité de l'univers montrent que les états de spins intriqués entre deux particules, le reste même à très grande distance, i.e. au delà de la causalité à célérité c, pourquoi ?

Réponse : Il faut déjà voir comment se passe l'intrication. Quand on intrique artificiellement le spin de deux particules, on agit forcément sur l'état de spin des tachyons subquantiques puisque ce sont eux qui sont à l'origine du spin. C'est donc un jeu à quatre (au minimum). Contrairement aux échanges d'énergie entre les niveaux {subquantique ←→ quantique} qui suivent les règles de la relativité générale, l'état du spin se propage à la célérité des tachyons. C'est ce que montrent les expériences d'intrication. L'état du spin s'affranchit totalement de la célérité c. Il faut bien réaliser que chaque tachyon dans le BEC est couplé à tous les autres dans le cadre de la période, te = 10-–21 s. Cela veut dire que le BEC (tissu d'oscillateur-tachyons) est informé de la position et de l'énergie de chaque particule qu'il contient. Par extension, par l'enchevêtrement de BECs, cette causalité s'étend à la bulle-univers entière, sous certaines conditions.

Suite 12

Question 122 Cela veut dire que l'univers peut se voir comme un immense computer ?

Réponse : pas tout à fait mais on peut dire que des informations fondamentales sont contenues dans le tissu d'espace-temps. On montre par exemple que la masse du pion π est une résonance liée au nombre total de tachyons dans la bulle-univers. On montre également que la masse du muon est une résonance liée au nombre total de paires électron-positrons dans la bulle-univers. On montre qu'il s'agit de la loi d'information résultant d'une extension de la thermodynamique (théorème de Nernst). Elle met en œuvre le fameux logarithme népérien et un nombre appelé « nombre de complexions » issu de l'équation de Boltzmann. Cette équation est relative à la relaxation locale d'un gaz, évoluant vers l'équilibre global (non local). On voit ici que l'état local du gaz tient compte de la perturbation quantique. En revanche, l'état non local est représenté par l'ensemble des couples {tachyon-électrons}. L'importance de cette formule est telle que Boltzmann l'a faite graver sur sa tombe, {S = KB ln w} dans laquelle KB représente la constante d'énergie par unité de température et w, le nombre de complexions. Cette relation vient du fait que l'entropie de désordre devient nulle à la température du zéro absolu. Cela veut dire que l'organisation des particules les unes par rapport aux autres, ne relève plus que d'une seule règle (Nb complexion = 1). Or comme le logarithme népérien de 1 = 0, l'entropie de désordre devient nulle. Selon Oscar, cette loi fondamentale, relative aux gaz, vient de l'état de perturbation du réseau de tachyons subquantiques. Ici la température représente l'état de perturbation. Si aucune particule quantique ne vient perturber le réseau, ce dernier ne possède plus qu'un seul état d'organisation car le réseau est synchronisé et parfaitement symétrique. L'entropie de désordre est alors strictement nulle. Fondamentalement, le tissu subquantique perturbé, possède autant de complexions qu'il y a de paires électron-positrons. Donc le logarithme népérien de ce nombre, représente une résonance mesurable, signant cet état d'univers.

Le muon est ainsi révélateur du nombre de paires électron-positrons dans l'univers 

Pour résumer, si on fournit l'énergie d'un muon (103 paires électron-positrons + 1) alors celle-ci entre en résonance avec le tissu subquantique. Cela revient à extraire autant de paires de tachyons qui apparaissent sporadiquement sous forme de paires d'électron-positrons fusionnées. La masse du pion  π relève d'une résonance encore plus fondamentale car sa durée de vie est également liée à l'âge de l'univers. Elle évolue donc mais sa variation n'est cependant pas facile à mesurer. 

Il faut bien voir l'importance de ce phénomène car, partant de la masse connue du muon, on retrouve précisément le nombre originel de paires électron-positrons, dont le calcul est initialement donné par une voie totalement différente !

Question 122 bis D'accord on peut comprendre qu'il existe autant de paires électron-positrons que de perturbations spécifiques, formant ainsi un réseau de complexion. Mais qu'en est-il du pion π° fonction directe du nombre de tachyons et non des perturbations ?

Réponse : On se souvient qu'un BEC (issu de la mitose après ξ2 divisions) contient ξ9 paires de tachyons car il a ξ3 couches contenant chacune ξ6 paires. Ce nombre est contraint par le fait qu'une couche du BEC-0 contenait ξ8 paires de tachyons. Et bien on mesure une résonance par diffusion élastique à partir de collisions d'hydrogène dont la masse (en unité électron) est le logarithme népérien de ξ9 . Le pion π° est donné par le logarithme du nombre total de tachyons ξ11 divisé par α4. On a vu que le puits subquantique est balisé par les 6 étapes de raison α. Il apparaît donc que l'origine de cette résonance se situe au quatrième niveau du puits subquantique. Mais un autre lien se fait jour au travers de la durée de vie du pion π° (). On se souvient (Question 106 bis) du ratio originel ξ3 qui lie entre autres, l'intervalle temps entre deux couches et la période te. Et bien, on obtient justement t° = tU / (ξ32). Vous avez bien lu, la durée de vie (locale) mesurée de ce pion est liée à celle (non locale) de l'univers. L'âge de l'univers est reflété par la durée de vie du pion π° ! En fait, il s'agit d'une autre forme d'intrication qui justement est connue pour être limitée par ce que l'on appelle la borne de Tsirelson (2). Il aurait été étonnant que la non localité de l'univers ne soit pas marquée par une résonance. Si l'on compare cela avec le boson W qui prend naissance au niveau 3 du puits subquantique, on constante que ce type de résonance est différent. Si cette dernière concerne uniquement le proton, celle du pion concerne le lien indéfectible qui existe entre le local et le non local. On rappelle que ce lien est incontournable car il est contraint par le fait que la mitose (échelle cosmologique non locale) revient à élargir les intervalles quantico-subquantiques (locaux). On a vu également que la durée de vie de l'univers (pas l'âge) est liée à la période constante du tachyon.

Question 123 Mais d'où sort l'énergie globale servant à l'expansion de l'univers ?

Réponse : quand les oscillateur-tachyons stochastiques fusionnent, se synchronisent et forment un BEC, cela revient à un crédit d'énergie. La formation d'un BEC revient à un refroidissement. L'état synchronisé coûte moins cher que l'état stochastique. Cette opération revient à une très forte décroissance de l'entropie. Ainsi l'expansion possède un crédit qui se manifeste par sa croissance d'entropie de désordre. Par ailleurs, on se souvient que la probabilité d'avoir une densité de tachyons adéquate, est quasi nulle. Ainsi le BEC saturé, se devait d'entrer en mitose jusqu'à ce que la densité soit idéale. Globalement, du point de vue énergie, la bulle univers se comporte comme un oscillateur dual puisqu'il n'est qu'une association d'oscillateurs. Tout ce qui est pris doit être rendu. Pour ces raisons, on voit bien que l'expansion vers l'infini n'a aucun sens.

L'oscillation duale est la seule manière de respecter l'action nulle. Au stade primitif, cette notion d'action nulle remplace la notion d'énergie car cette dernière n'existe que sous la forme d'entropie de désordre.

Question 124 Revenant au proton, qu'est-ce qui distingue le modèle oscar du modèle standard ?

Réponse : en premier lieu, le modèle standard fait appel à des spécialistes portant la théorie spécifique (QCD) pour l'étude isolée de cette particule composite. Ce modèle mathématique tente de décrire ce qui est observé au travers d'expériences de collisions multiples. A contrario, le modèle Oscar intègre les causes du proton dans la genèse de l'univers tout en interprétant les résultats de ces expériences.

Question 125 C'est quoi la QCD ?

Réponse : c'est l'acronyme de « Chromo Dynamique Quantique » dans lequel le terme « chromo » vient de couleur. Avant de regarder les arguments physiques, on remarque l'absence de prémisses physique dans le titre. Ce dernier n'est basé que sur la symbolique des couleurs et l'abstraction qu'elles représentent. Pour éviter de parler de charge spécifique, on a eu l'idée de les imager par des couleurs. Il est significatif de voir que c'est seule la capacité abstractive qui est mise en valeur dans l'acronyme. C'est l'aveu de l'absence de prémisses physiques dans cette théorie. L'excellence serait dans l'abstraction mathématique au service de la physique et non dans la mathématisation pour servir l'abstraction.

Question 126 que propose la QCD ?

Réponse : elle part de résultats d'expériences dans lesquelles on a découvert que le proton était :

- composé de quarks (2 u + 1 d)

- le siège d'une force forte (QCD)

- le siège d'une force dite électromagnétique (QED)

- le siège d'une force dite faible avec les bosons vecteurs W, Z.

- le siège d'un spin égal à celui de l'électron

- l'impossibilité de le casser par collision (si l'énergie dépasse son niveau propre, elle créé un nouveau proton.

- le siège d'un rayon de charge

- le siège de la charge d'un positron

- un rayon nominal orbital de Bohr

- différents niveaux d'énergie orbitaux

- son aptitude à fusionner en perdant de la masse

- le siège de particules virtuelles

- une anomalie énorme de son moment magnétique

- une masse de 1836,15 équivalente à électrons

- une impossibilité d'isoler les quarks.

Cette liste est non exhaustive. Ainsi la QCD propose de décrire (pas d'expliquer) tous ces phénomènes. En résumé, la QCD dit que le proton est composé de particules plus petites, les quarks dont la charge n'est pas de 1 mais de 1/3 et 2/3. Un astucieux montage de combinaisons permet de fabriquer des particules composites dont les charges sont +1, –1 et 0. Le lien avec l'univers est assez rustique car on déclare sans preuve aucune, que l'univers fossile était fait de quarks et d'électrons. La QCD pose que le proton possède 8 gluons (bosons de masse nulle) liant les quarks entre eux. Elle mesure la masse des quarks qui ne représentent moins de 3 % de la masse totale.

Question 126 bis que représente le moment magnétique de l'électron ou du proton ?

Réponse : classiquement on prend le produit de la charge élémentaire e par la constante de Planck h le tout divisé par la masse de la particule. Mais cette méthode est faussée pour les raisons suivantes :

1/ d'abord il faut rappeler que h est déterminé par le produit de la masse de l'électron par sa longueur d'onde élevée au carré λe² et divisé par la période de l'électron te. Son universalité tient au fait que toute particule se décline en électron ou positon célibataire émergeant.

2/ donc s'agissant de l'électron, en divisant par sa masse, le moment magnétique est : e λe²/te e λe c (en négligeant le coefficient d'anomalie qui est faible, soit 1,001159652153).

3/ en appliquant cette règle au proton on trouve une anomalie énorme et inexpliquée (facteur 2,7928 plus grand au lieu de 1,001159652153), en divisant h par 1836,15 masses d'électron.

Sachant que le rayon de la charge matérialise le rayon du proton, on voit bien l'incohérence du modèle standard où la charge viendrait des quarks mais dont le rayon est plus de 1000 fois plus petit. L'explication Oscar est la suivante :

1/ la charge du proton est celle du positron célibataire mais exprimée en tenant compte des 3 intervalles polarisés des 4 groupes de paires neutres.

2/ le rayon du proton est principalement donné par le rayon de Compton de chaque groupe.

3/ mais ce rayon tient compte (4.6 %) de la part corpuscule induite, représentée par les quarks (1,3%) + les particules virtuelles induites 3,3%).

4/ le rayon de Compton non contraint du positron est celui de l'électron (~ 459 fois plus grand).

5/ mais il est contraint (par son interaction avec les intervalles polarisés), de rester dans le proton.

6/ il induit lui aussi, une composante corpusculaire (quark u de charge +) à 2/3 = 66,66%.

7/ la mesure de l'anomalie du moment magnétique (2,9728) amène à corriger le rayon de la bulle positron d'un facteur 2,97 / 4 = 0,69, soit une anomalie avec 2/3 de 1,046  (soit les 4,6% de la ligne 3)

8/ ainsi, l'énorme anomalie QCD du proton, 297 % est ramenée à 4,6 %, qui représente la seule perturbation permanente, liée à l'habillage virtuel et à l'induction des quarks.

Si le modèle QCD des quarks fonctionne,  cela tient à ce que l'effet est le reflet de la cause. Ce ne sont pas les quarks qui donnent la charge au proton mais bien le positron célibataire et confiné, dans le cadre du couplage avec les 3 intervalles des 4 groupes de paires neutres. La clé est la suivante : le positon induit 1/3+ dans chaque intervalle (donc 3/3 en tout) et la somme des intervalles, induit paritairement 1/3+ et 1/3. Cela donne bien : 4/3+ – 1/3 = 1+. On vérifie ainsi que les intervalles des couches neutres, le sont également. En ne cherchant qu'à décrire sans expliquer, la QCD est condamnée à confondre l'effet et la cause. La même erreur est faite avec la masse et on en vient à monter un scénario fait d'abstractions mathématiques où un champ scalaire expliquerait la masse des protons. Même en suivant cela, on peut se demander ce qui explique ce champ inertiel ? Il est cependant paradoxal que ce champ scalaire existe bien mais il n'est capable que d'induire la faible part de l'habillage virtuel.... Ce même champ scalaire est également fondamental pour expliquer l'augmentation de masse relativiste mais pour cela il faut fournir de l'énergie à la particule en l'accélérant. D'où vient tout cela ? Pas d'un « vide » mystérieux et moyenâgeux mais du niveau subquantique formant l'espace-temps.

Pour bien répondre à la question posée, il faut voir que c'est la charge e, active au rayon λ, qui crée le moment magnétique dans le cadre de la constante c. Ainsi, pour l'électron, la charge circulant tangentiellement à vitesse c, induit environ 100 ampères. L'influence magnétique, parfaitement décrite par les équations de Maxwells, n'est pas du tout expliquée. En revanche, le modèle Oscar dit clairement que la perturbation du tissu subquantique par cet électron, est transmise de loin en loin par l'asymétrie des oscillateurs tachyons.

Question 126 ter que représente la charge élémentaire (positon ou électron) ?

Réponse : cette question a déjà été visitée dans le cadre du fonctionnement de l'oscillateur tachyon dual. Elle est une composante des deux masses inertielles car elle les relie pour les annuler pour toutes valeurs de l'amplitude. Comme la paire électron-positron est née de la séparation causale d'un oscillateur-tachyon, sa charge continue d'être une composante de sa masse. Elle a donc subi la même inflation que la masse tout en gardant sa très faible charge fossile (la gravitation). Voici un rapide rappel de l'énorme rupture épistémologique apportée par Oscar :

1/ la constante c est le rayon (onde Compton) de l'électron, divisé par la période universelle te. (c = λe / te).

2/ la charge universelle e est la charge du seul électron (ou positon), déterminée par son rayon classique et sa masse (e² = μo ro me).

3/ la non localité de l'univers lève la dichotomie boson/fermion et les paires électron-positrons, de création non locale, forment toutes les particules. Les créations locales sont donc éphémères.

4/ la constante h représente les seuls paramètres de l'électron, h = me λe² / te.

5/ la période te est celle des oscillateur-tachyons formant le tissu subquantique dans chaque BEC.

6/ La gravitation représente le lien des séparations causales originelles (G = λe3 / me te² ξ4).

7/ Le facteur ξ représente le nombre de mitoses et donc l'augmentation d'intervalle élémentaire.

8/ le facteur αe représente le taux d'annihilation originelle 1D. Il est fonction de ξ.

Question 126 quater Si le moment magnétique est l'expression physique de l'ampère multiplié par une distance élevée au carré, pourquoi varie-t-il proportionnellement ?

Réponse : ce qui apparaît comme la distance élevée au carré est en fait la constante propre au positron, λe multipliée par son rayon dans le proton, λp . A charge égale, c'est la variation de cette distance qui règle le moment magnétique du proton. Mais la charge ramenée à la mesure du rayon du proton, est la résultante de la somme vectorielle, positon + la polarisation des intervalles des couches neutres. Le modèle Oscar est un modèle de type physique. Il peut dans certains cas, ne pas représenter le réel. Le proton a la particularité d'ouvrir ses portes à la visite sous la contrainte des collisions. Donc l'expérimentateur ne peut faire autrement que de perturber l'équilibre interne de tel sorte que son intimité non troublée reste à jamais secrète. Des voies existent cependant en faisant varier le type de particule incidente dans les collisions (muon, électron, proton, etc...) et leur intensité. On peut ainsi comprendre combien les modèles mathématiques risquent d'être très éloignés du réel s'ils oublient de se fonder sur des prémisses physiques sérieuses.

suite 13

Question 127 Cette énorme énigme du moment magnétique du proton est-elle la seule épine dans le modèle QCD ?

Réponse : Non loin de là encore que cette question soit très discutée. Quoi qu'il en soit, il faut d'abord faire le recensement des énigmes. Le modèle Oscar s'est attaché à faire le recensement de 16 énigmes sur le seul proton. Le calcul QCD approche le rayon du proton mais il présente deux mesures contradictoires. La masse des quarks et leurs charges résultent de l'astuce des expérimentateurs. Mais elle pose un problème énorme. On voudrait montrer que la somme des spins des quarks donne le spin du proton mais cela ne fonctionne pas. Quand un neutron se transforme en proton, il émet une neutrino et des bosons W et Z. On sait les mesurer mais on ne sait pas les expliquer. En gros il n'y a que la théorie octuple de Gell-Mann qui fonctionne bien. Il s'agit de celle qui permet d'associer les déclinaisons d'atome, aux chages des quarks.   L'anomalie du moment magnétique du proton reste une énigme. Cependant elle propose une « explication » de l'anomalie du moment magnétique de l'électron que même Feynman (un des instigateurs, voir plus loin, les boucles de Feynman) a déclaré : « il aura fallu cette supercherie pour sauver la QCD ». Et puis il y a la question fondamentale de sa raison d'être. Pourquoi le proton possède cette masse, avec ces paramètres précis que l'on mesure ?

Question 128 Alors justement pourquoi le proton est la seule particule composite stable ?

Réponse : l'existence même du proton est la trace précise des conditions de départ de l'univers. On revient à cette saturation qui provoque la mitose et la séparation causale de la première couche du BEC-0. Le nombre aléatoire de tachyon-électrons superposés est celui que présente le proton aujourd'hui. Le modèle montre que le proton est fait de 4 groupes de couches concentriques de paires électron-positrons de création non locale (donc bosons). Ces couches représentent quasiment l'état « onde » de la dualité onde/corpuscule. Le modèle montre que le proton est né de ces trois facteurs :

- la superposition des sites (aléatoire)

- la mitose

- l'annihilation primordiale

Comme tout est fait d'électron-positrons, regardons la longueur de Compton de l'électron qui représente son état onde. Si on divise le proton en 4 groupes de 458 unités, on obtient une corrélation entre le rayon électron et le rayon proton, tout simplement. Cependant, nous avons vu que les vibrations internes induisent des quarks et des particules virtuelles. Cela veut dire que le proton est principalement dans un état onde et à la marge, dans un état corpusculaire (quarks). Donc les quarks, induits en permanence, viennent corriger à la marge le rayon du proton. Or c'est bien ce que l'on mesure. Selon que leur faible masse soit prise en compte ou pas, la mesure du rayon varie. A cela il faut rajouter la très faible masse du positron célibataire et confiné qui ne joue que pour 1/1836.

Question 129 Pourquoi ce rayon de Bohr ?

Réponse : on se rappelle que le taux d'annihilation 1D était de α = 137,035999... (constante de structure fine). Or le rayon de Bohr est exactement α fois plus grand que le rayon « onde » de l'électron. C'est le trou creusé sur la surface originelle, par l'annihilation. Mais c'est également le taux de mitose de chacune des étapes. Donc l'espace élémentaire de la première couche fossile est de ro (le mystérieux rayon classique) qui est donc α² fois plus petit que le rayon de Bohr. Le modèle OSCAR montre que l'équivalence attendue entre l'énergie électrique et l'énergie de masse est bien respectée sur la surface du BEC primordial. Cela est très important puisque c'est l'échec de la mesure du rayon classique qui, à Copenhague, a fait basculer la physique vers cette course folle à l'abstraction mathématique....

Question 130 Mais d'où sort la masse de Planck ?

Réponse : dans la même veine, sur la surface primordiale, la mitose a appauvrit la densité de tachyons d'un facteur ξ². Sans la mitose le proton aurait la masse de Planck (à un petit facteur près). En fait, la masse de Planck est une des traces fossiles de la mitose.

Question 131 La masse de Planck est pourtant calculée à partir de c, G, h (vitesse de la lumière, gravitation et constante de Planck) alors comment fait-on le lien ?

Réponse : comme vu plus haut, h G et c ne sont que des représentants des paramètres de l'électron. En revanche la constante G est induite par les ξ4 paires électron-positrons présentes sur la circonférence du BEC-0. En fait la séparation causale revient une rotation de 90° {axiale → tangentielle} de la faible charge des tachyons. Ainsi tandis que la masse-charge subit une inflation pour devenir celle des électron-positrons (alternés sur la couche), se met en place ce gradient de charge faible entre les intervalles des paires ainsi formées. La rotation transforme des paires d'impulsion {réelle annulée} en paires d'impulsion {imaginaires séparées}. La transformation laisse le produit {masse × vitesse} strictement identique. Le ratio de masse {Planck / électron} est strictement égal au ratio de mitose. C'est la surface élémentaire collectrice des protons qui a été multipliée par ξ2 par la mitose. Ce nombre est donc également celui des BEC-fils ayant chacun en son sein, une étoile. Ce nombre, ~1022étoiles, est compatible avec les dernières estimations cosmologiques. La masse de Planck – mystère de la théorie standard – fait partie de la grande cohérence du modèle Oscar. La non localité de l'univers ne se manifeste pas seulement dans les expériences d'intrication, mais également dans le lien indéfectible entre les données microscopiques élémentaires et celles de la cosmologie.   


La faiblesse du modèle standard tient dans son approche réductionniste et fragmentée. L'univers est unique et toutes choses doivent lui être rapportées. 


Question 1
32 Mais le ratio de masse-charge est de ξ3 alors que le ratio (mesurable) entre la force électromagnétique et gravitationnelle s'exerçant sur une paire électron-positron n'est-il pas de ξ4 ?

Réponse : très juste mais sur cette sphère primordiale on se rappelle que l'intervalle 1D est ξ fois plus petit qu'actuellement. Donc, actualisé, le ratio est bien vérifié à ξ4. Tout se tient.

Question 133 Donc la masse de Planck (fictive), le rayon de Bohr, le rayon classique, la mesure du ratio E/G, sont tous des preuves indirectes la mitose ?

Réponse : oui à une nuance près. Quand on pose la relation {Électromagnétique/Gravitation} (sur une paire électron-positron), il apparaît en plus, le ratio α = 137,035999. Et justement il montre bien que c'est le taux d'annihilation qui fait passer l'intervalle élémentaire de ro (classique) à la longueur d'onde de Compton. Tous ces éléments (et bien d'autres) apportent l'explication complète de l'ontologie du proton.

Question 133 bis Quel est le lien entre ce taux alpha (α = 137,035999) est le ratio de mitose ξ ?

Réponse : le taux de mitose ξ représente le résultat final de la division fractale qui se fait en 6 épisodes α. Si la synchronisation induit 3 constantes fondamentales (masse, espace, temps, de l'électron), il n'existe qu'un seul et unique ratio, α = f(ξ). C'est cette division fractale qui amène le nombre d' « équivalents électrons » dans le proton. En 2D, on a bien : no = 1835,26 = α12 / ξ2. Ce nombre représente le reste pur aléatoire qui caractérise le proton.

Question 133 ter Oui mais le proton ne pèse t-il pas 1836,15 masses d'électron ?

Réponse : tout juste mais il faut se rappeler ; a) que le référent {électron mesuré} est habillé de particules virtuelles, b) que ce nombre issu du hasard ne peut que s'arrondir en paires entières. Ainsi comme on l'a vu on a 8 groupes de 230 paires (1840 unités donc 920 paires neutres, en tout). Le nombre aléatoire 1835,26 formant des groupes de 229,40, on peut comprendre l'arrondi à 230 si on inclut l'énergie de fusion. En réalité la création passe par l'état neutron qui possède une paire isolée confinée qui devient vite un positron célibataire après éjection d'un électron. Ainsi le proton et l'électron sont les seules particules stables de l'univers. L'énergie de formation des protons, polarise le tissu subquantique ce qui fait que toutes les particules sont habillées de particules virtuelles. Toutes les expériences montrent que certaines symétries propres aux particules, apparaissent violées. Mais en tenant compte du couplage puissant avec le tissu subquantique, la symétrie globale règne en maître. On peut comprendre que le nombre aléatoire 1835,26 n'a quasiment aucune chance d'être un nombre entier même si le proton ne peut qu'être constitué que d'unité entière. Ainsi le taux d'annihilation est également le ratio de mitose rapporté à chaque palier de mitose.

Question 133 quater Mais d'où sort ce taux ξ (xi) qui en ordre 2, donne le taux de mitose, en ordre 3 est le taux de conversion {tachyon → électron}, en ordre 4 est le ratio E/G d'une paire électron-positron et donc le nombre total de paires (circonférence 1D), en ordre 5 est le ratio d'Eddington, en ordre 8 est le nombre total de paires 2D sur la première couche, soit (ξ4)2, = ξ8 et en ordre 11, est le nombre total de tachyons ?

Réponse : Ce ratio est purement aléatoire car il est fixé lors de la synchronisation formant BEC. La période moyenne (issue de la somme des périodes aléatoires des tachyons) est telle que l'intervalle temps entre deux couches est ξ3 fois moindre que la période universelle. C'est le ratio entre le nombre total de tachyons du lot aléatoire et la taille du BEC dont le rayon est fixé par l'amplitude des tachyons. En résumé, c'est la clé de voûte du rapport nombre/densité du premier BEC. Ainsi, le nombre de paires sur la première couche du BEC-0 est ξ3 fois moindre que le total. Mais la saturation (aléatoire) surfacique provoque la séparation causale de la première couche. L'influence des couches internes agit avec ce ratio pour fixer le taux d'inflation de masse. Comme vu plus haut, la relation fossile E/G (ξ4) fixe le nombre par couche et la relation Planck / électron (ξ2) fixe le ratio sur la surface élémentaire et donc ξ pour le rayon. La composition du proton (seule particule composite stable) est là comme variable d'ajustement pour obtenir α = f(ξ).

Question 134 Mais pourquoi cette annihilation primordiale ultra majoritaire a-t-elle eu lieu ?

Réponse : toujours pour la même raison, l'incontournable saturation des sites. Des tachyons qui se superposent, augmentent leur masse et donc baissent la fréquence des tachyons (augmentation de l'inertie) et font échouer leur séparation causale au moment précis où ils deviennent électron-positrons.

Question 135 Donc le proton est à la fois la cause et la conséquence de l'annihilation ?

Réponse : oui car sans saturation, pas de proton et donc pas d'annihilation à ce stade primordial. En revanche, l'annihilation secondaire, liée à la géométrie fractale, ferait de la matière noire en grande quantité. Mais ce scénario sans saturation est hautement improbable car avoir un nombre exact pour satisfaire à la loi d'équilibre des BECs, ne peut être donné par l'aléa.

Question 136 Quelle est la conséquence de la mitose sur le proton ?

Réponse : la mitose donne un nombre de BEC-fils strictement égal au ratio de section élémentaire (ξ²). Le ratio de rayon élémentaire fait que la taille transverse du tachyon est ξ fois plus petit que l'intervalle élémentaire (longueur de Compton). Le proton évolue d'une section très dense (masse de Planck) qui se raréfie au cours des 6 étapes de mitose, pour donner sa masse finale. En son sein, subsiste la trace fossile des 6 étapes de mitose. On montre que chacune de ses étapes, se manifeste par une résonance (bosons de jauge).

Question 137,035999 Quelle est cette mystérieuse constante de la physique (alpha) que certains ont considéré comme ayant un pouvoir magique lié au nombre entier 137 ?

Réponse : il est vrai que le modèle standard considère cette constante comme magique, sans pour autant, faire (aujourd'hui) l'erreur de l'arrondir au nombre entier le plus proche (137). Il est également vrai que le modèle standard rejette (avec raison) toute démarche numérologique. Cependant il fait une honteuse exception dans le cadre de cette constante comparée à l'anomalie du moment magnétique de l'électron : αe = 1,001159652153. Ce ratio, s'exprime également par 2 × 1,001159 = 2,0023 = g, le facteur de Landé. Cette exception numérologique part d'une coïncidence entre le nombre π et (g – 2) / 2 + 1. De longs développements mathématiques, (utilisant les boucles de Feynman) ont permis d'approcher la mesure précise de αe (1,001159652...). Mais Feynman lui-même à déclaré « il aura fallu cette supercherie pour sauver la QCD ». Le modèle standard considère cette constante comme représentant le couplage des forces quantiques. C'est bien sûr la conséquence mais pas la cause. En réalité, cette constante signe parfaitement la mitose du BEC originel. Elle représente une des traces fossiles de l'opération {mitose + annihilation + séparation causale}. C'est le ratio qui a élargi l'intervalle élémentaire de ro à la longueur de Compton λe. La fonction de couplage est directement liée à la loi d'énergie en 1/r. C'est le ratio qui a figé les différentes étapes de mitose et donc qui matérialise le puits subquantique. C'est la raison pour laquelle il est très précisément lié au taux de mitose (ξ). Quant à l'anomalie du moment magnétique de l'électron, le modèle oscar l'explique avec une précision numérique inédite. Sans entrer dans l'équation précise proposée, on peut dire :

- qu'elle trahit le couplage tachyon-électron.

- qu'elle est liée au taux d'habillage de l'électron

- que ce dernier est corrigé par le très faible taux d'annihilation entre deux BECs voisins.

En première approche, la précision de ce calcul fut décevante car limitée à 9 décimales, elle était en dessous des 12 décimales du calcul standard. Cependant, en ajoutant les contraintes d'annihilation partielle due à la non localité, alors la précision du calcul atteint 14 décimale, soit 100 fois plus que le calcul standard.

En résumé cette constante fascinante, est la trace directe de la mitose. Elle est appelé « constante de couplage » justement parce que l'énergie de liaison varie en 1/r.

Question 138 L'enchevêtrement des volumes élémentaires est-il le même que celui des BECs à l'échelle cosmique ?

Réponse : non car les volumes élémentaires résultent de l'organisation précise des tachyons dans les BECs, alors qu'à grande échelle, les enchevêtrements sont de nature plus chaotiques, au fur et à mesure de l'expansion de l'univers. Cependant, on trouve les traces fossiles des 6 étapes de mitose, à l'échelle cosmique, selon la gradation alpha (~ 137) :

1/ l'univers visible (rayon de Hubble) à 13 700 millions années-lumière

2/ les grands vides inter filaments à 100 millions années-lumière : 

2 bis/ super-amas galactiques (250 millions années-lumière)

3/ les groupes galactiques (8 millions années-lumière)

4/ les galaxies moyennes (0,05 millions années-lumière)

5/ les amas globulaires max (350 années-lumière)

6/ les étoiles moyennes (5 × 109 mètres)

Cependant, il est difficile d'établir une hiérarchie car si l'univers et les grands vides sont en cours d'expansion, les BEC-étoiles et les BEC-galaxies ne le sont pas. Ainsi on retrouve bien le taux alpha (~137) entres les {n°1/n°2}. Le ciel actuel se présente comme une éponge où les trous sombres sont, en moyenne, 137 fois plus grands que les filaments visibles. Les super-amas et les groupes sont soumis aux lois de la gravitation. Le ratio alpha {n°1/n°2 bis} apparaît comme compatible avec la valeur max d'expansion du modèle. Le ratio {n°3/n°4} est également compatible avec alpha. Le ratio {n°4/n°5} n'est compatible que pour les valeurs maximales, ce qui laisse entendre que les évolutions gravitationnelles ont cassé la hiérarchie initiale. Les deux derniers sont liés par le ratio ξ, tant par le nombre que par le rayon. En revanche, le ratio alpha (élevé au carré), indique un intervalle moyen entre étoiles de 2,6 années-lumière sachant que dans notre zone peu dense, Proxima Centauri est située à 4,2 années-lumière. Cette estimation d'intervalle moyen est approximative car elle considère la Galaxie comme une crêpe idéale en 2D, ce qui n'est pas le cas.  En réalité la valeur moyenne est plus petite.

Il faut bien retenir que :

1/ le tissu subquantique 3D est très majoritaire

2/ l'expansion se manifeste par le déchevêtrement des BECs

3/ cela laisse invariant les volumes élémentaires

4/ ce qui  garantit la constante c (vitesse des photons). 

Question 139 Que veut dire l'expression « univers visible »

Réponse : la notion d'univers visible dépend du modèle d'univers. Le modèle standard, basé sur la notion d'équivalence {densité-rayon de courbure}, s'appuie sur la métrique de Friedmann et de ses nombreuses variantes. Il traite un espace mathématique abstrait à 4 dimensions. Il implique une notion d'horizon où l'expansion est plus grande que la vitesse de la lumière. La distance de ce rayon est estimée à 45 milliards d'années-lumière, soit 3,28 fois plus étendue que le rayon de Hubble. Ce modèle mathématique n'indique pas si l'univers est fini ou infini et c'est même la seconde hypothèse qui est la plus en vogue aujourd'hui. Les prémisses physiques de ce modèle, ne s'intéressent pas aux conditions initiales et encore moins au principe d'action nulle et de localité. Selon le modèle oscar, il confond les effets de la relativité générale avec la cause physique dans laquelle elle se manifeste. Il ne résout pas la question fondamentale de ce qu'est physiquement, le tissu subquantique de l'espace-temps. Les spéculations sur l'univers infini n'ont aucun sens physique. Le fait de dire ; « la bulle espace-temps de l'univers évolue dans rien » est juste une spéculation. En revanche, le principe d'action nulle (PAN), amène d'emblée la notion de dualité à toutes les échelles. Ainsi, à l'échelle de l'univers, la bulle espace-temps évolue dans un monde infini d'oscillateurs duaux stochastiques 1D et non connexes. Ceux là mêmes qui ont donné naissance à cette bulle, à partir de la constitution logique d'un BEC.

A partir de ces contraintes physiques, le modèle OSCAR considère que :

1/ l'univers dual comprend un halo infini d'oscillateurs 1D stochastiques, sans centre et sans espace structuré, dans lequel évolue une bulle-univers nantie de ses constantes physiques.

2/ le rayon physique de cette bulle a(t) est environ 6 fois plus grand que le rayon de Hubble (Ho)

3/ l'horizon cosmologique est typiquement le rayon de Hubble (Ho)

4/ le centre de l'univers est environ à ½ Ho de notre position et matérialisé par le reste fossile du BEC-0 (grand vide unique de l'éridan).

5/ il existe une légère anisotropie observationnelle liée à notre position non privilégiée bien que proche du centre.

5/ la bulle univers est constituée de couches d'expansions liées par les BECs enchevêtrées.

6/ notre position (à ~7 Giga années-lumière du centre) subit une expansion à environ ½ c.

7/ la limite extérieure de la bulle, est en phase de ralentissement

8/ notre position et notre horizon cosmologique est en phase d'accélération comme observé.

9/ l'énigmatique énergie sombre est justement l'énergie moyenne d'expansion de la bulle-univers à environ 3c.

On voit qu'ici les spéculations disparaissent avec les sombres énigmes qu'elles génèrent.

Question 140 Le ratio mesuré de l'énergie sombre (ES) sur la somme énergie {noire + visible} est d'environ 3. Pourquoi est-il plus petit que 4,5 ?

Réponse : le fait que le ratio mesuré, ES/E = 76/26 ~3 < 4.5, laisse augurer que le phénomène d'accélération des couches inférieures, est en cours d'installation. De cela on tire au moins, la conclusion suivante : la demi période de l'oscillateur-univers est plus grande que son âge actuel.

Il est remarquable que :

1/ l'équation d'Eddington (h²/G/me3) donne une rayon (couche moyenne) max de Rm = 2 × 1032 m.
2/ Rm correspond exactement à une situation (virtuelle) où tous les BECs (ξ²) sont tangents et forment une sphère creuse ayant ce rayon.
3/ mais Rm doit être réduit (pour tenir compte du taux d'annihilation, α3 à 27.2 G.a.l.
4/ si on prend la relation de Schwarzschild avec la masse oscar (M) précise, on trouve exactement la même valeur par : 3 G M / c² = 27,2 G.a.l.
5/ si on prend la voie de l'oscillateur dont la période varie avec la racine carrée des masses (et donc la racine du nombre de masses élémentaires) on retrouve également la même valeur par : te 3c ξ4 /α3=27.2 G.a.l. Avec (te) la période élémentaire du BEC ou de l'électron (10-21 s).
Par le plus grand des hasards, cette valeur maximale correspond à environ deux fois le rayon de Hubble. Cela est mis en avant par les tenants de l'univers stable et ce, sans autre argument que cette coïncidence numérique.

Donc pour cette période, le rayon maximum des couches extérieures, est atteint avant son terme. Ainsi la gravitation, qui joue rôle de lien élastique dans l'oscillateur-univers, l'emporte à terme pour que toutes les masses (imaginaires car séparées) s'annihilent et retournent à l'état stochastique. Ce dernier est éternel car il respecte le principe d'action nulle (PAN). 

Encore une fois, les mesures locales (à l'échelle de l'horizon cosmologique)  peuvent dire le contraire de l'état de  la réalité globale.

Question 141  L'espace 3D est-il inné ?

Réponse : Il serait facile de se contenter de cette spéculation sans justification aucune. Non le seul espace « inné » est celui formé par les oscillateurs stochastiques 1D, duaux. On a montré qu'il ne pouvait pas en être autrement pour éviter l'impossible état statique. Le principe d'action nulle (PAN) contraint l'existence d'une infinité de ces oscillateurs stochastiques à action strictement nulle. On rappelle qu'une partie de ces oscillateurs 1D sont statistiquement contraints de fusionner en un BEC instable. C'est seulement sur cette base que l'espace 3D peut se former en passant par des couches oscillantes 2D. L'isotropie du 3D, qui nous paraît naturelle, relève en fait d'un mécanisme assez subtil. La période commune propre au tissu subquantique, fait qu'un cycle relie toujours l'intervalle élémentaire voisin, via le centre du BEC. Cela veut dire que, du point de vue subquantique, tous les intervalles élémentaires du BEC, sont causalement reliés dans le même intervalle de genre temps. Cette interaction se fait à la vitesse co, bien plus grande la vitesse c. Cela crée un très léger défaut d'isotropie entre les intervalles voisins de l'axe radial et ceux de l'axe tangentiel. Cependant ce défaut, caractérisé par un Δt de l'ordre de 10-54 secondes, est totalement indétectable.

Question 142  Pourquoi la vitesse est limitée à c pour le domaine quantique ?

Réponse : justement à cause de cette grande célérité subquantique co, qui règle la période du BEC, te. Donc un photon est forcé de franchir un espace élémentaire (λe) en un temps te, ce qui impose la célérité c pour le domaine quantique. Mais si on tente de faire approcher un électron (massique) à cette vitesse, cela « dérange » la période du tissu subquantique. Ce « dérangement » est en fait la création d'harmoniques dont la fréquence est plus grande que celle imposée par 1/te. Cette fréquence plus importante se traduit par l'extraction d'une énergie subquantique supplémentaire. C'est la cause de l'effet relativiste. Une autre manière de le voir consiste à noter que la symétrie duale des tachyons est violée. De ce fait l'annulation de l'action ne se fait plus et l'énergie correspondante est extraite.


Question 142 bis Mais Einstein parle de courbure de l'espace-temps, proportionnelle à la densité d'énergie du vide ?

Réponse : c'est également juste mais c'est la conséquence de la cause décrite ci-dessus. On a déjà vu que la perturbation des oscillateurs duaux se traduisait par une asymétrie de leur amplitude, ce qui est la seule cause de la courbure de l'espace-temps. C'est une belle théorie de type  mathématique, décrivant bien le réel,  mais basée que sur les seuls effets. Au grand regret d'Einstein lui-même, elle ne dit absolument rien sur la réalité physique de l'espace-temps. Très peu de physiciens se sont intéressés à ses questionnements portant sur les CAUSES. Mes propres statistiques d'enseignant, montrent malheureusement que la règle des 80-20 se traduit comme suit : seulement 20% des étudiants souhaitent d'abord  comprendre et donc 80% ne veulent qu'apprendre....      

Question 143 Pourquoi l'expérimentation ne révèle-t-elle pas cette immense célérité subquantique ?

Réponse : mais elle la révèle nettement, au travers de l'intrication du spin des particules. Le fonctionnement du BEC {1D → 3D} contraint l'infléchissement des trajectoires radiales en hélicoïdes, formant ainsi le spin. Comme une particule occupe toujours un volume élémentaire, alors elle révèle ce spin en fonction de son état (1 ou ½). Encore une fois on confond l'effet avec la cause. Quant on intrique deux particules, on intrique d'abord les oscillateur-tachyons couplés avec lesquels elles interagissent. Le « voyage » du spin se fait strictement dans le cadre de la période du BEC, i.e. bien au dessus de la vitesse de la lumière. C'est pour cela que l'univers est déclaré non local par BELL. L'information causal du spin est à l'échelle d'un BEC (1021 m). Le problème du modèle standard est d'éluder les questions fondamentales comme par exemple la cause du spin, de la gravitation, de la matière noire, etc....(voir les 33 questions posées dans ce site). Il rajoute une constante spéculative dans une équation et le problème est réglé ! Quelques fois, il rajoute une « contrainte » née d'une spéculation (hypothèse) cosmologique. Non une contrainte physique ne peut être née que d'une base physique incontournable.

Question 144 Que signifie l'appellation « nombre baryonique » ?

Réponse : le modèle standard considère deux grandes familles de particules ; les leptons (sans quark, comme l'électron) et les baryons avec quarks (comme le proton et le neutron). Lors des transformations (fission, fusion), le nombre de baryons (protons, π, etc..), reste inchangé. Toutes les expériences locales le confirment. Cette conservation du nombre baryonique existe également avec le nombre leptonique. Encore une fois, le modèle standard, ignore le critère de localité. En effet, à l'échelle non locale, cette conservation n'est pas vérifiée. Pour ce faire, il faudrait raisonner au niveau global, en incluant le nombre de photons (bosons) et le tissu subquantique. Le nombre baryonique est le rapport entre le nombre de baryons et le nombre de photons. Le modèle oscar indique clairement le nombre de photons émis lors de la grande annihilation des paires électron-positrons fraîchement créées à partir des paires de tachyons séparées. Le nombre de paires créées est donné par ξ8 et le taux d'annihilation à suivre est donnée par α3 = 2,6×106. Ce nombre est exactement le ratio entre le nombre de photons et le nombre de paires électron-positrons. Ce ratio augmente d'un facteur 1842, si l'on compare avec le nombre de protons (composites). Sans faire d'équation, on vérifie que : 3/1842/α3 = 6,3 × 10-10, est conforme à la mesure faite par WMAP (6 à 6,4 × 10-10). Mais la puissance du modèle Oscar permet en plus d'indiquer – non plus le ratio – mais le nombre de paires électron-positrons, initialement créées. Il correspond à ξ8/ α3 =1,26 × 1083. Connaissant la masse d'un électron, on en déduit donc la masse totale de l'univers (2 × 1053 kg). Cette masse se situe à environ 10 fois la masse visible estimée par les observations. Elle représente, en principal, la masse noire qui n'est rien d'autre que des paires électron-positrons dégénérées. Ces paires ne sont plus en harmonie avec le tissu subquantique (les tachyons dont ils sont issus). Ainsi la conservation du nombre baryonique est juste une illusion locale. On a vu largement que la matière noire est le résultat de collisions entre galaxies issues de zones éloignées (donc à grands angles relatifs). C'est cette non localité de l'univers qui fait que la matière ordinaire existe localement sous forme imaginaire (au sens mathématique). En fait la « matière » existe sous deux grandes formes fondamentales, contraintes par le principe d'action nulle :

1/ dans l'oscillateur dual 1D, les deux masse-énergies sont réelles mais s'annulent (localité élargie).

2/ après séparation causale, dans l'univers les masses sont de nature imaginaires (localité).

Dans (1) c'est la force électrique (la charge) qui fait le lien causal et garantit l'annulation permanente.

Dans (2) c'est la gravitation (somme vectorielle des toutes les charges fossiles) qui annonce la future annulation par annihilation.

La matière noire est un état intermédiaire majoritaire, située entre {1-2}.

Question 145 Que penser de ces galaxies naines qui défient le modèle standard car elles possèdent un immense trou noir en leur sein ?

Réponse :  ici comme ailleurs, cela confirme le modèle Oscar, puisque :

1/ on sait qu'il faut considérer une galaxie comme un immense halo (oscar dit : par enchevêtrement serré de BECs) contenant un peu de matière visible et beaucoup de matière noire (DM).
2/ on sait maintenant que la plupart des « naines » possèdent un halo plus étendu que celui des « grandes galaxies ». Cela s'explique car la DM est moins bien couplée aux tachyons, ce qui rend donc le couplage BEC-BEC, plus lâche.
3/ beaucoup de galaxies naines représentent les restes de collisions (grand angle) qui ont donc produit beaucoup de DM.
4/ c'est la raison pour laquelle leur halo est étendu. En fait si on voyait la matière noire, ces galaxies apparaîtraient plus grande que les "normales" car elles sont le résultat de deux (ou plus) galaxies fusionnées.
5/ la matière noire (DM) – issue de la dégénérescence des particules fondamentales – a deux comportements opposés et complémentaires :
a) la partie centrale de la collision forme un trou noir mixte où la DM est majoritaire.
b) les parties périphériques sont expulsées par la force centrifuge car la DM est moins bien couplée au BEC que la matière visible. Ceci n'est pas une spéculation mais une contrainte oscar liée à la cause même de la non localité et de la DM.
6/ la partie b est observée aux limites du halo car son couplage change assez radicalement. En effet si son couplage est faible dans le halo distendu, il est encore plus faible en dehors du halo où les BECs inter galactiques sont largement moins enchevêtrés. C'est cette rupture de densité qui permet l'observation des limites du halo.

Le halo n'est pas fait "de matière noire" comme souvent dit par les tenants du modèle standard, mais formé de BECs enchevêtrés qui retiennent la matière noire. Là encore, on confond l'effet et la cause.

Enfin, il existe aussi des naines qui sont des lambeaux issus de collisions à faible angle relatif et donc sans production de DM. Celles-ci sont vraiment naines.
Le modèle standard est ici encore, incohérent car malgré l'évidence reconnue de la DM majoritaire, il continue de classer les galaxies en fonction de leur apparence visible. Un autre signe flagrant de rigidité, est cette manie de garder les anciennes unités obsolètes (celles des Maîtres) alors qu'il existe une norme intelligente appelée MKSA. Cela ressemble aux pratiques des médecins du moyen âge qui, pour combler leur belle ignorance de la médecine et renforcer leur statut, s'exprimaient en latin. Cette pratique est grave car elle tend à isoler une « élite » du bon peuple.

Question 146 Que contient le super « trou noir central » d'une galaxie naine ou géante ?

Réponse : sa composition est beaucoup plus subtile que la simple idée de baryons tellement denses, que les photons ne peuvent s'en échapper. Comme déjà vu, la forme fractale de la mitose, favorise les collisions primordiales et donc celles à grand angle relatif. Quand ces collisions sont frontales, les deux énergies cinétiques ont tendance à s'annuler. Ainsi la matière noire est quasi immobilisée au centre et représente la cause profonde de la formation des trous noirs. Mais ces trous noirs sont doublement noirs car formés de matière noire, en majorité. Par ailleurs, nous avons vu que le centre des galaxies est également le point commun des oscillateurs des BECs enchevêtrés. Or les BECs des étoiles très serrées du bulbe galactique, présente une « densité de centres » très grande. Cela revient à saturer les sites des tachyons dans leur couches respectives, comme ce qui a été décrit lors de la séparation causale originelle. Autrement dit, tout ce passe comme si le centre de galaxie se prenait pour un (mini) univers naissant. Il tend à expulser et donc à séparer des paires de tachyons. On observe donc des « trous noirs » très bizarres qui expulsent des paires électron-positrons. Un trou noir sensé tout garder, se met à expulser !! En résumé, ce qui étonne grandement le modèle standard, est attendu par le modèle oscar. Le trou noir central est à la fois :

1/ le lieu des points zéro communs saturés du milieu subquantique qui se révèle au travers de ces éjections.

2/ le lieu ou la DM est concentrée après collision mais d'où elle s'évapore lentement.

3/ le lieu d'un trou noir classique.

Question 147 Que veut dire le décalage « z » vers le rouge qui permet d'estimer la constante de Hubble.

Réponse : tout d'abord on sait maintenant que la « constante » de Hubble, Ho, n'est pas constante. La première des choses à comprendre (avant d'apprendre) c'est de réaliser qu'il s'agit d'une vitesse par unité de longueur. En unité MKSA on a des mètres/seconde/mètre et donc il s'agit de l'inverse d'un temps. Pour éviter de « faire simple » le modèle standard exprime cela en km/seconde/mégaparsec (km/Mpc). Il n'y a aucune cohérence entre des « km » et des mégaparsecs. Cette dernière unité valant quelques 3,26 années-lumière, soit : ~3 ×1022 m. La valeur moderne estimée de Ho est d'environ : 70 km/Mpc, soit ~2,3×10-18 s-1. L'inverse de cette valeur étant 4,3 × 1017 s donne une approximation de l'âge de l'univers, traduit généralement en milliards d'années (13,7 G.a.l.). En effet, connaissant la vitesse limite c, on en déduit la distance maximale des photons nous parvenant, soit 1,3 ×1026 m ou 13,7 G.a.l. Bien entendu, les astres ayant émis ces photons ont continué à s'éloigner de nous et la distance d'éloignement est donc aujourd'hui, plus grande. Toutes ces unités disparates découragent d'emblée, nombre de gens qui cherchent légitimement à comprendre. Pendant que l'on fait cette gymnastique (inutile) de traduction d'unités, on perd le fil et surtout on perd cette notion d'ensemble si nécessaire à la compréhension des problèmes. Parlons maintenant du décalage vers le rouge. En laboratoire, on sait que tel ou tel atome émet une fréquence propre qui est constante et bien connue. On sait par ailleurs que plus un objet s'éloigne, plus la fréquence perçue par un observateur, diminue. Cela tient au fait que l'énergie de radiation diminue avec la distance. On a juste à considérer le ratio entre la fréquence émise (connue) et la fréquence perçue (mesurée). Pour des raisons de commodité, ce ratio s'appelle {z + 1}. En fait, cette forme permet de transformer une différence {émise – perçue} en un ratio, plus facile à manipuler. Ainsi on mesure l'expansion de l'univers par ce décalage. On dit « vers le rouge » car la fréquence (l'énergie) de la lumière rouge est plus petite que la fréquence bleu ou ultra violette, par exemple. Cependant il faut bien avoir en tête que les fréquences mesurées ne sont pas dans le domaine du visible. La forme : 1 + z = ao / a(t) veut dire : le taux d'expansion de l'univers observé au temps (t). Il faut cependant signaler que la signification de z pour les grandes valeurs dépend du modèle d'univers. Par exemple z = ~1100 pour le fond diffus, est sensé représenter la fréquence amoindrie émise à une certaine période proche de l'origine. Par exemple un décalage vers le rouge de l'hydrogène, observé à z=8,6, situe la galaxie à environ 13 milliards d'années-lumière. Cependant cette règle a été récemment démentie par le biais suivant : on connaît certaines étoiles, (céphéides, supernovæ) dont on connaît leur magnitude absolue (émission). Or les observations montrent clairement que l'expansion de l'univers observable, accélère. Ce sujet de l'accélération de l'expansion a été traité plus avant.

Question 148 Que signifie la téléportation quantique ?

Réponse : nous répondrons à cela sous la forme de commentaires (repérés de 1 à 5) apposés sur l'article écrit ce mois-ci par Jean-Luc GOUDET de Futura-Sciences concernant ce sujet :

« Depuis longtemps, les physiciens cherchent à exploiter les invraisemblables propriétés quantiques (1) de la matière à très petite échelle. L’informatique pourrait en profiter, pour la réalisation d'ordinateurs quantiques, mais aussi pour la transmission de données. L’intrication, un phénomène complètement contre-intuitif (2), devrait permettre en effet de faire voyager des clés de décryptage de façon tout à fait sûre ou de vérifier si un message n’a pas été lu durant le voyage. C’est une étape dans cette voie que vient de réussir une équipe internationale dans une expérience réalisée à l’université de Genève, réussie sur une distance de 25 km, contre 6 dans la précédente version ».

(1) nous dirons plutôt subquantiques.

(2) ce terme est un euphémisme car les tenants du modèle standard ignorent totalement les causes de la non localité de l'univers. Pire les explications sont éludées (voir le dessin sur la non localité et ses liens).

« Lorsqu’ils sont intriqués, deux photons forment un tout et une action sur l’un, par exemple une mesure, a un impact sur l’autre et cela, quelle que soit la distance (3). De cette manière, un état quantique peut être transféré à un autre, de façon instantanée (4). Les effets dans le monde quantique d’une action de ce genre étant aléatoires, la transmission n’est pas celle d’une information, mais d’un état. La lecture d’un côté permet tout de même de savoir s’il s’est passé quelque chose dans l’autre, par exemple si un espion a intercepté le message et tenté une lecture, donc une mesure. Baptisé téléportation quantique (5), ce genre d’expérience progresse depuis de nombreuses années, et plusieurs équipes ont réussi à exploiter ainsi l'intrication quantique sur des dizaines de kilomètres et même davantage......».

(3) Cette affirmation est pure spéculation pour le modèle standard. Pour le modèle OSCAR, la distance maximale contrainte est celle d'un halo galactique (1021 m).

(4) L'instantanéité est encore une spéculation car le modèle Oscar démontre que la célérité subquantique n'est pas infinie mais 1033 fois supérieure à la célérité quantique c. En revanche, le seul signal télé-portable visible au niveau quantique est bien celui de l'état du spin. Ce dernier est celui des tachyons subquantiques car leurs trajectoires sont contraintes d'être hélicoïdales. En fait une opération d'intrication sur les particules entraîne, de facto, l'intrication des tachyons subquantiques. ensuite, selon la particule, l'état de spin est 0, ½ ou 1.

(5) Le terme téléportation nous paraît abusif car le tissu subquantique de l'espace-temps construit et déconstruit – à chaque intervalle élémentaire de genre temps (10-21 s) – le spin qui est donc omniprésent dans tous les volumes élémentaires d'un BEC. Si un volume donné ne contient pas de particule (cas très majoritaire), le spin s'annule entre le flux montant et descendant. Si un photon est présent, il additionne les deux spins (½ + ½ = 1). S'il s'agit d'un électron par exemple, le spin est juste celui d'une des branches de l'oscillateur dual, soit ½ .

Conclusion : des expérimentateurs chevronnés et astucieux font des manipulations qui apportent de précieux renseignements. Mais le traitement de ces informations ne s'appuie que sur des effets et non des contraintes physiques. On voit ici les limites d'un modèle s'appuyant sur la seule mathématique qui, paradoxalement, lui permet de se passer de véritables prémisses physiques.... De cela naît des incohérences comme celle consistant à affirmer « qu'aller plus vite que la lumière équivaut à une relation instantanée ». On voit encore une fois les graves conséquences du déni d'interprétation des résultats de l'expérience d'intrication et plus généralement de la non prise en compte du critère essentiel de localité.

Question 149 Pourra-t-on un jour réussir une téléportation matérielle, dans un délai plus court que celui imposé par la vitesse de la lumière ?

Réponse : si on prend l'exemple d'une émission radio et de sa réception dans une antenne, on obtient bien une (faible) énergie faisant vibrer des électrons dans le corps conducteur de l'antenne. Il y a bien téléportation d'une énergie mais l'intervalle de genre temps est celui imposé par la vitesse de la lumière. Dans le cas de la « téléportation quantique » liée à l'intrication, il ne s'agit que de l'état de spin, naturellement transporté par les tachyons avec une vitesse, co >> c. Injecter de l'énergie en un point donné du tissu subquantique d'espace-temps, revient à :

1/ créer un canal local de transit {quantique → subquantique}

2/ déformer la symétrie des tachyons à la vitesse co, donc à l'échelle du BEC.

Comme pour le spin on a donc une information plus rapide que c mais restant confinée au niveau subquantique. Mais comme les tachyons du tissu d'espace-temps passent tous par le centre du BEC, ce sont les ξ9 (10100) tachyons du BEC qui se partagent (en 10-21 s), l'événement ponctuel. On peut dire en quelque sorte que le gain de vitesse est compensée par une perte en intensité. Il y a bien une téléportation subquantique d'énergie circulant à célérité co mais sa détection en terme de courbure d'espace-temps, apparaît comme impossible à cause du taux de dispersion (10-100).  En revanche, la progression (au niveau quantique) autour de l'émetteur local, s'effectue par un front d'onde sphérique qui se disperse classiquement en 1/r².

Question 150 Mais si l'événement local est permanent comme par exemple la gravitation d'un corps céleste, que se passe-t-il ?

Réponse : exactement la même chose car la déformation de l'espace-temps se traduit par une sorte « pente » dont le creux est ce corps. Prenons le cas simple d'un étoile nichée au centre du BEC qui l'héberge. Simplifions en ignorant les BECs enchevêtrés environnants. Sans la présence de l'étoile,  le BEC serait parfaitement symétrique autour du point zéro commun, situé au centre. Si on applique ensuite l'action de la masse de l'étoile sur le BEC – même parfaitement symétrique – cela perturbe la zone centrale. Avant de parler de gravitation, le BEC a tendance à se replier sur lui-même car son rayon diminue en fonction de cette masse. Cela veut dire que tout corps présent dans le BEC subira cette effet qui est constant dans tout le BEC. Ceci est un effet de la non localité d'un BEC.  Il faut rappeler que le BEC est ξ3 (1033) fois plus grand que le volume quantique élémentaire. Dans l'intervalle d'une période, cet intervalle est parcouru à la vitesse c. Dans le même temps le tachyon traverse le rayon du BEC. C'est cela, la non localité de l'univers.

Question 151 Mais cet effet (non gravitationnel) est-il mesuré ?

Réponse : oui, il est mesuré et.... généralement éludé. Il s'agit de la sonde Pioneer dont on sait qu'elle subit une décélération en plus de celle (calculée) générée par la gravitation. Ce taux de décélération est faible mais constant, contrairement à celui de la gravitation qui varie en 1/r². Ainsi, il passe inaperçu à des distances proches du soleil mais commence à être mesurable à de plus grandes distances. Le modèle OSCAR propose une équation qui explique cette mesure énigmatique. Ce phénomène est très très important car il résout de facto deux autres énigmes :

1/ celle concernant la rapidité avec laquelle se sont formées les premières étoiles. En effet, aux limites du BEC, ce taux d'accélération (10-10 m/s²) est largement plus grand que celui de la gravitation (10-23 m/s²). S'il passe inaperçu sur la terre, il est dix mille milliards de fois plus grand aux limites du BEC !! Cependant, en tenant compte des BECs enchevêtrés, ce ratio est revu nettement à la baisse.

2/ l'effet de cisaillement de DM, observé aux limites des halos galactiques.

En fait, on verra plus loin que cette 5eme force est une composante de la gravitation.

Question 152 Mais revenons à la propagation de l'effet gravitationnel ?

Réponse : on voit déjà qu'un univers basé sur la seule composante newtonienne de la gravitation est simpliste. Reprenons notre étoile au sein de son BEC. Si on parle de gravitation, on ne peut plus raisonner en isolant cette étoile du reste du monde. Pourquoi ? Tout simplement parce que cette étoile (comme toutes les autres) est faite de matière imaginaire. Cela veut dire que ses composants ultimes sont des paires électron-positrons, causalement séparées. Chacune est le complément de toutes les autres. Cela veut dire que si toutes les étoiles étaient superposées, elles s'annihileraient totalement. Il faut noter que la gravitation – dans ses deux composantes – amène inexorablement à terme, cette configuration. On se souvient que la séparation causale originelle s'effectue sur la première couche du BEC-0. La somme des (faibles) charges radiales 1D de chaque oscillateur, s'exerce maintenant tangentiellement et collectivement sur la surface sphérique 2D. C'est la cause profonde de la gravitation dont l'amortissement est bien vérifié en 1/r². Le principe d'action nulle qui maintenait la cohésion des deux masses opposées de l'oscillateur, s'exerce maintenant sous forme globale, par le biais de la gravitation. Cela veut dire clairement qu'une séparation définitive est hors de question car cela signifierait une énergie infinie, ce qui n'est physiquement pas acceptable.

Question 153 L'espace-temps est-il courbé par la gravitation ?

Réponse : c'est vrai à l'échelle d'un BEC mais c'est faux à l'échelle de l'univers. On a vu que la cause de la relativité générale est l'asymétrie des oscillateurs tachyons, formant le tissu d'espace-temps. Donc dans le BEC, la courbure de l'espace-temps est le résultat de cette asymétrie. En fait à l'échelle d'une galaxie, voire d'un amas, on retrouve le même fonctionnement. Typiquement, ces entités ne subissent pas l'expansion. En revanche, au niveau global de l'univers, le fait que les BECs soient très déchevêtrés (distants), favorise la 5eme force. Ainsi, la notion de courbure ne s'applique absolument pas. D'ailleurs les mesures faites à cet égard, le confirment totalement. Cette absence de courbure intrinsèque, à cette échelle, fait dire aux tenants du modèle standard, que l'expansion se poursuivra indéfiniment. Il faut bien voir l'incohérence du propos :

1/ on fait l'hypothèse (spéculation donc) que l'univers suit – à grande échelle – les lois de la relativité générale et de ce fait, on espère mesurer une courbure.

2/ on mesure bien cette courbure mais elle est miraculeusement à zéro. (ni négative ni positive).

3/ plutôt que de remettre en cause l'application à grande échelle de la RG, on accepte la sotte idée d'une expansion infinie qui nie les lois profondes de la physique.

En résumé : la RG est bien vérifiée à l'échelle d'un BEC (donc en gros d'un halo-galaxie). En revanche, du point de vue global – donc la partie en expansion – les enchevêtrements de BECs sont tellement distants que c'est la 5eme force qui prend le relais. Composante de la gravitation, elle ne courbe pas l'espace-temps, ce que la mesure confirme. Elle est cependant suffisante pour limiter l'expansion. L'application du modèle mathématique local, à tout l'univers (non local) est simpliste.

La 5eme force se mesure dans :

1/ la décélération de Pioneer 11,

2/ le cisaillement des halos galactiques,

3/ la rapidité de formation des premières étoiles,

4/ la non courbure à l'échelle de l'univers.

Question 154 Si le soleil explosait, devrions-nous attendre quelques 10 minutes pour en être informé sur la terre ?

Réponse : Non ! Le tissu d'espace-temps de notre BEC (ou halo) serait très secoué après un intervalle de temps de 10-21 s (quasi instantanément) et on n'aurait pas le loisir d'observer l'explosion. Seuls d'éventuels habitants d'une autre galaxie, pourraient la voir après l'intervalle temps lié à la célérité c. En revanche, le signal optique arriverait sur la terre dans le délai classique, à célérité c.

Question 155 Mais pourquoi le couplage {BEC-BEC} passe-t-il par la matière ?

Réponse : Considérons deux BECs sans matière. Dans ce cas, il ne peut y avoir de couplage car les deux causes d'attraction mutuelle, passent par le couplage {matière-BEC}. La première de ces causes est décrite à la réponse (n° 151). Il s'agit de la force induite par l'action perturbatrice des masses sur le tissu subquantique. Elle se mesure dans Pioneer 11 mais également, indirectement par les particules virtuelles et l'anomalie du moment magnétique. Cette force est souvent appelée, la 5eme force. Elle est complémentaire à la gravitation. On vu que la matière est couplée avec le tissu subquantique du BEC. Ainsi l'interaction entre deux BECs, passe forcément par ce couplage. On a vu également que le couplage {BEC-matière} est :

1/ assez fort dans les galaxies (visibles) où la gravitation est intense et l'enchevêtrement serré.

2/ moyen dans les galaxies dominées par la DM, et donc les « naines » ont de très grands halos.

3/ très faible dans les BECs intergalactiques dont l'enchevêtrement est très distendu.

Dans le troisième cas (majoritaire en volume) c'est la 5eme force qui domine car sa constance lui donne une valeur relative à grande échelle.

En résumé le couplage {BEC-BEC} doit s'écrire {BEC-matière + matière-BEC}. Ce couplage, de type élastique, permet l'expansion sans altérer la constance des volumes élémentaires.

Question 156 Mais alors l'expansion de l'univers serait dominée par cette 5eme force ?

Réponse : oui mais elle reste quand même une composante de la masse et donc de la gravitation. En effet la masse induit deux composantes :

1/ la composante inertielle et sa capacité à perturber qui est constante.

2/ la composante gravitationnelle qui varie en 1/r².

A la différence de MOND, OSCAR dit que les deux composantes de la masse {inertielle-gravitationnelle) jouent un rôle complémentaire et permanent :

1/ la composante gravitationnelle varie en 1/r²
2/ la composante inertielle induit une perturbation du tissu subquantique, d'intensité constante.
Cependant la composante (2) est tellement faible qu'elle n'apparaît qu'à grande distance et sa limite est celle du halo à 1021 m. Mais à cette limite, la (2) l'emporte largement sur la gravitation ce qui explique les observations de "cisaillement de DM" aux limites des halos.

Il faut cependant bien noter que cette force est observée (dans Pioneer) comme étant proportionnelle à la vitesse relative des corps comparés.

Question 157 Pourquoi ne peut-on pas observer de particules de matière noire (DM) ?

Réponse : selon OSCAR, la DM est constituée de paires électron-positrons ayant perdues leur lien harmonique avec les tachyons. Elles sont dégénérées car une partie est sous forme de photon. Elles devraient rester confinées au niveau subquantique, ce qui expliquerait la grande difficulté à les observer. En effet, selon Oscar, la matière (imaginaire) est toujours composée de paires électron-positrons de création non locale. Le couplage aux tachyons, auparavant déterminé par un nombre entier, est brisé. Comme la DM est majoritaire, elle serait ainsi la cause du large spectre de fréquences du tissu subquantique d'espace-temps que l'on peut déduire de l'expérience de CASIMIR.

Question 158 Ces paires électron-positrons dégénérées, seraient alors sous quelle forme dans le tissu subquantique ?

Réponse : il est fort probable qu'elles soient sous la forme d'oscillateurs sous-harmoniques. Prenons comme exemple, une paire électron-positron ayant subi une annihilation analogique à 80 %. Cela veut dire que 80 % de l'énergie de masse est sous forme de photon (en liaison avec la constante h et donc observée). Selon oscar, On a vu que les photons (comme les neutrinos à cet égard) sont des particules duales qui sont à la fois au niveau quantique et subquantique. Mais que devient le reste de la DM qui représente (dans cet exemple) 20 % d'une paire électron-positron ? Ayant perdu son couplage harmonique, elle ne peut peu plus prétendre à avoir son « image » subquantique. Sa fréquence quantique n'est plus convertie en haute fréquence locale subquantique. Donc paradoxalement, ces 20 % dégénérés ont un statut subquantique lourd et donc oscille à basse fréquence. Cette partie dégénérée pourrait être sous forme d'oscillateurs ayant un large spectre de basses fréquences que l'on peut détecter dans l'expérience Casimir. Il est même probable que ce spectre soit l'immense source des diverses particules éphémères que l'ont peut potentiellement extirper de l'anti-chambre du tissu subquantique.

Question 159 Peut-on envisager des particules indépendantes du tissu subquantique ?

Réponse : non c'est impossible car ce que l'on peut voir d'une particule n'est que la partie émergée de la dualité {quantique-subquantique}. Son spin est celui d'un volume élémentaire dans lequel elle est forcée d'évoluer. Quand on dit qu'un fermion a un spin ½, on devrait dire, « la relation duale de cette « particule-tachyon » a un spin ½. On a vu que la dualité d'un fermion concerne un ½ oscillateur (donc un tachyon) alors que celle d'une paire de photons concerne 1'oscillateur entier et donc deux tachyons opposés. Pour illustrer cela, le cas le plus simple est celui d'une paire électron-positron d'énergie cinétique nulle. Leur rencontre (annihilation) donne deux photons éjectés à 180° qui portent l'énergie de la paire électron-positron. Ces deux photons s'éloignent à vitesse c pour rendre graduellement l'énergie (de masse) au tissu subquantique. L'état de ces deux photons est lié par le niveau subquantique. Ils forment une entité à deux composantes quantiques et deux composantes subquantiques. 

Question 160  Mais où est passée la masse de la paire électron-positron ?

Réponse : c'est une bonne question car on sait que la masse d'un photon est nulle. Ce mystère n'est pas expliqué par le modèle standard. Selon Oscar, chaque photon se comporte comme un oscillateur dual dans l'axe {quantique-subquantique}. Exactement comme l'oscillateur-tachyon où sa dualité permet d'annuler sa masse. Ce qui revient à dire que la masse est imaginaire (au sens physico-mathématique). Ce comportement du photon est donc un révélateur de la clé du modèle OSCAR. Ainsi l'annihilation analogique est ici totale puisque les deux éléments de la paire sont de source locale dans le laboratoire. Si chaque élément de la paire était de source différente (non locale) alors l'annihilation serait partielle (fonction de l'angle de non localité). La partie restante, devenant de la matière noire.

Question 161 C'est vraiment nouveau cette idée d'annihilation analogique ?

Réponse : Oui et cette notion se rattache à la non localité. On a vu que le modèle standard utilise la magique constante de Planck h comme élément de construction le plus petit, pour caractériser toute particule. On a vu que que h n'est rien d'autre que la traduction des constantes de l'électron et donc du tachyon. Ainsi la notion d'annihilation analogique – fonction de l'angle – n'est plus rattachée à la constante de Planck h. Même les neutrinos – si difficiles à intercepter – sont liés à h. Alors on peut comprendre la difficulté de capter cette matière noire totalement découplée de cette constante h. Il n'y a guère que sa capacité gravitationnelle qui reste à la hauteur de la part non annihilée. De plus les parties élémentaires de la DM ne peuvent en aucun cas former des baryons même si la masse totale fusionnée, devait correspondre.

Résumé :

a) la brique ultime de la matière est le tachyon subquantique avec son image harmonique quantique, la paire électron-positron.

b) les quarks, induits dans les baryons, ne sont pas les briques ultimes.

c) la DM (majoritaire) est une sorte de bouillie de briques ultimes et noyées dans le tissu subquantique.

d) la notion de dualité est la solution unique du principe d'action nulle.

e) la gravitation a deux composantes dont une ne varie pas avec la distance (dans le BEC considéré)

f) la période de l'électron est celle du BEC (te = 10-21 s)

g) la propagation d'une courbure {matière → BEC) est limitée au BEC, dans sa période te.

h) la propagation d'une courbure {BEC → BEC} se fait via la matière, à célérité c.

Question 162 Tout n'est que dualité ?

Réponse : oui car c'est la clé du principe d'action nulle ou PAN. En premier lieu les oscillateur-tachyons duaux et stochastiques, oscillent car c'est la seule solution pour respecter le PAN. Il n'est donc pas besoin d'invoquer on ne sait quel miracle divin qui apporterait de l'énergie comme cela, gratuitement. Il faut également sortir de certains faux semblants qui, pour éviter les incohérences d'un zéro absolu parfait, admet un minima d'énergie. Il ne faut pas éluder les questions fondamentales et bien comprendre qu'il existe 3 sortes de zéro :

a) le zéro absolu mathématique qui exclut la physique,

b) le zéro absolu physique qui n'existe pas,

c) le zéro relatif, composante d'une dualité symétrique.

Ce dernier type de zéro amène la notion de référentiel et de causalité réciproque. Dans l'oscillateur dual, la masse, l'espace et le temps existent réellement dans chacune des deux branches, appelée le référentiel tachyon. La causalité réciproque n'a rien à voir avec la notion classique de causalité qui ne s'attache qu'au sens chronologie entre la cause et l'effet. La causalité réciproque est juste le lien intangible de symétrie qui garantit l'action nulle.

Non seulement l'action nulle n'est pas une hypothèse, mais elle porte, dans son expression duale, toutes les solutions ontologiques fondamentales. Voici quelques exemples de dualité :

1/ la dualité intrinsèque de l'oscillateur stochastique éternel garantissant l'action nulle,

2/ la dualité {séparation causale → gravitation} / {mitose → expansion}

3/ la dualité {quantique / subquantique} qui régit toute particule

4/ la dualité {localité → imaginaire / non localité → réalité annulée}

5/ tous les principes de régulation biologique, sont de nature duale.

Question 163 Y-a-t-il une dualité globale dans le fonctionnement d'un BEC subquantique ?

Réponse : oui car outre la dualité qui régit chaque oscillateur-tachyon, on a celle qui concerne les couches oscillantes. Rappelons-nous que sur le rayon, deux tachyons « sortants » voisins, représentent deux charges en mouvement parallèle de même sens. Selon les forces de Lorentz et donc de Laplace, ces « conducteurs » sont sensés s'attirer. C'est justement là qu'intervient la dualité : il existe une parité stricte entre les tachyons sortants et rentrants. Il y a donc globalement, autant de « conducteurs » qui s'attirent que de « conducteurs » qui se repoussent. Ainsi la force de cohésion globale devient nulle par cette dualité, laissant s'exercer la somme des lois de cohésion particulière de chaque oscillateur. En quelque sorte c'est le principe d'action nulle qui garantit l'amplitude de chaque oscillateur et donc le rayon global du BEC. Comme pour le spin, le BEC – et donc le tissu d'espace-temps – est rempli d'un gradient d'induction magnétique (Henry/mètre) que l'on nomme perméabilité magnétique. Il est représenté par le symbole μ0 et sa valeur a été fixée arbitrairement à l'unité dans le système d'unité c.g.s. Ensuite, dans le système d'unité MKSA (plus cohérent), cette valeur est devenue : 2π × 10-7. Ce nombre s'explique par des cm² exprimés en (10-4) et des grammes, exprimés en kg (10-3). On obtient la valeur duale de la constante d'induction magnétique – soit la permittivité électrique du tissu d'espace-temps – par : ε0 = 1 / μ0, exprimée en Farad /m. Il est incroyable que certains universitaires font passer l'idée que la valeur de la constante de permittivité se retrouve par : (1/36 π)10-9, alimentant ainsi une confusion loin des sources réelles liées à l'analyse dimensionnelle des paramètres de la physique. Cela participe à cette sotte idée portée par les adeptes de l'école de Copenhague ; « il ne faut pas chercher à comprendre ».

Question 164 Peut-on exploiter cette force de Laplace pour déformer localement, le tissu d'espace-temps ?

Réponse : oui et c'est certainement la plus belle promesse d'une fusion nucléaire sans déchet. Il existe un laboratoire (Sandia) au nouveau Mexique qui exploite à fond cette force de Laplace. On y produit un courant de 20 millions d'ampères que l'on fait passer dans une petite cage formant réseau de fils fins et parallèles, la Z Machine. En 2006, les laboratoires SANDIA ont annoncé avoir atteint plus de 2 milliards de degrés après pincement de Laplace de la cage. Ce courant vaporise les fils ce qui créé un plasma très fortement projeté en son centre (pincement ou constriction). L'énergie cinétique des électrons est ainsi transformée en rayons X qui peuvent être utilisés directement pour induire un courant utilisable. On sort ici du schéma classique des centrale à fission où le vecteur courant passe par une machine à vapeur. Dans un avenir de quelques dizaines d'années, il est envisagé de construire une centrale nucléaire propre car la température induite permet (déjà) de fusionner l'hydrogène en atomes plus lourd et libérant ainsi de l'énergie d'une manière propre et quasi gratuite. Il faudra juste mettre au point une technique permettant de répéter des impulsions brèves à grande cadence. Ce qui étonne grandement, c'est la température atteinte. En effet, le calcul montre que celle-ci ne devrait pas dépasser 500 millions de degrés soit le quart de celle constatée (2 milliards de degrés).

Aucune explication n'a été fournie pour ce gain d'énergie. Il est possible que les dimensions de la cage soit proche d'une résonance harmonique des tachyons subquantiques. justement, le modèle Oscar montre qu'il en existe une autour de 5 cm (soit ξ λe) ou le rayon du BEC divisé par ξ²

Cette longueur λ0= 5 cm correspond à un « trou » dans la progression des longueurs partant de la longueur de Planck jusqu'à la taille finale de l'univers.

lP

λtachyon

λe

λ0

λétoile

λBEC

λUNIVERS

10-35

10-24

10-13

5×10-2

1010

1021

1032

long. Planck

larg. tachyon

électron

?

primordiale

amplitude tachyon

(Eddington)

virtuelle contestée par OSCAR

transverse

Compton

Cage de la Z Machine ?

sur BEC-0 puis se disperse ensuite

L'ensemble fait le rayon du BEC

ne tient pas compte de l'annihilation

ξ-1

1

ξ

ξ2

ξ3

ξ4

ξ5


La dernière colonne correspond à l'équation formulée par Eddington, sur la seule base de l'analyse dimensionnelle. Elle correspond à un rayon virtuel maximum d'univers, représenté par des BECs tangents formant une sphère creuse. Cela représente bien une limite logique de l'expansion mais trois autres approches différentes entre elles, montrent que cette limite ne peut être atteinte à cause de l'annihilation primordiale. En fait la limite est ramenée à 1026 m soit environ 40 milliards d'années-lumière. La première colonne est celle fixée par Planck à partir de l'analyse dimensionnelle. Comme pour la dernière colonne, la seule approche dimensionnelle s'avère simpliste. Le modèle OSCAR montre que cela vient d'une déclinaison logique de la masse de Planck. Sauf que cette dernière est totalement virtuelle car elle correspond à une projection virtuelle de la masse du proton dans un scénario où on ignorerait la mitose et l'annihilation. On note au passage que sur ces deux valeurs extrêmes et spéculatives, on a choisi arbitrairement de rejeter celle d'Eddington car elle mettait l'électron au centre de la physique. Ainsi la spéculation appelle l'arbitraire et vice et versa.

Question 165 Revenons à l'expansion de l'univers, en fin de compte qu'est-ce qui la ralentit ?

Réponse : c'est la gravitation mais à l'aide de ses deux composantes :

1/celle bien connue qui varie en 1/r² dont la cause est la séparation causale des tachyons devenant paires électron-positrons.

2/ la composante constante, liée au couplage avec le tissu subquantique (BEC), qui représente la 5eme force.

Cette dernière est largement majoritaire sur ces grandes échelles, comme on l'a vu. L'expansion se manifeste en opérant un déchevêtrement relatif des BECs intergalactiques. Il faut savoir que dans le cas Pioneer, on a mesuré que si la 5eme force ne dépend pas de la distance, elle varie cependant linéairement avec la vitesse d'éloignement. Cela est très important car cela joue un rôle d'homogénéisation de l'expansion. En effet, si à tel ou tel endroit, le déchevêtrement devait aller plus vite que la moyenne, l'intensité du couplage augmenterait pour en limiter l'effet. Le couplage {matière -BEC} augmente avec la vitesse radiale car elle est dans l'axe de celle des tachyons. Cela révèle la faible anisotropie du tissu subquantique. Pour Pioneer, cette décélération vient s'ajouter à celle due à la relativité générale.

Question 166 Peut-on traiter l'univers comme un trou noir ?

Réponse : oui mais avec un bémol. On a vu que le monde quantique est caractérisé par la vitesse c, indépassable. Or la vitesse radiale d'expansion échappe à cette règle. Déjà l'expansion est variable et de plus sa valeur maximale moyenne atteint 3c. Ainsi l'équation régissant le trou noir est modifiée par cela.

Question 167 Que se passera-t-il quand l'expansion s'arrêtera ?

Réponse : comme on l'a déjà vu, il existe un gradient de vitesse d'expansion et on ne peut parler que d'expansion moyenne. Quand cette moyenne sera nulle, les parties internes continueront sur leur lancée alors que les parties externes (en avance) seront déjà en phase de contraction. Cela créera un « écrasement radial » et le rayon de la couronne pourra passer en dessous du seuil d'horizon cosmologique. Cela veut dire que les observateurs futurs verront une zone au loin où la matière se raréfiera jusqu'à atteindre une densité nulle.

Question 168  Est-ce que cet « écrasement » a déjà commencé ?

Réponse : oui mais très faiblement. Il n'est pas impossible que le «Grand Attracteur » en représente une première signature. Notre position « en retard » et donc en accélération est symétrisée par une partie en avance, qui décélère.

Question 169  Mais ce resserrement devrait s'observer dans la direction opposée à celle qui représente le seul et unique grand trou de l'univers, vers l'éridan ?

Réponse : oui et c'est justement le cas. Le Grand Attracteur est peu ou prou à l'opposé de l'éridan. L'axe de ces deux observations est l'axe radial de l'expansion de l'univers. Bien entendu, l'expansion se manifeste également sur l'axe tangentiel car elle est quasiment isotrope, vue depuis n'importe quel point. Mais attention, certaines distorsions locales peuvent être constatées. Si la moyenne des intervalles est en augmentation du fait de l'expansion, certaines galaxies peuvent très bien être attirées entre elles par la gravitation. C'est le cas d'Andromède avec notre propre galaxie.

Question 170  Mais que se passe-t-il ensuite, un Big Crash ?

Réponse : oui mais pas comme décrit naïvement par certaines extensions du modèle standard. En effet, plus l'étau se resserrent, plus on retrouve des collisions entre des éléments d'origines éloignées. Ainsi les annihilations (relatives) reprennent et s'accentuent jusqu'à ce qu'il n'existe plus de matière quantique.

Question 171 Que deviennent ces BECs vides de matière ?

Réponse : dans un premier temps ils sont chargés de photons issus de la matière annihilée. Mais dans un monde qui se resserrent, toute l'énergie des photons est rapidement rendue aux tachyons car c'est le rôle des photons. Il faut rappeler que selon le modèle OSCAR, l'annihilation qui transforme la masse des particules en photon, ne fait pas disparaître la masse comme par enchantement !! Celle-ci continue bien d'exister mais dans le mode dual d'un oscillateur dans l'axe {quantique – subquantique} et c'est là – en se propageant à célérité c – qu'elle réintègre progressivement les tachyons en les symétrisant à nouveau. C'est exactement comme le neutrino électronique (mais aussi muonique et tauique) qui enlève réellement de la masse au neutron. Sa propagation à célérité c montre que sa masse est annulée dans l'oscillateur transverse. Les contorsions du modèle standard sont difficiles à justifier, qu'on en juge : on admet une oscillation des saveurs de neutrino – ce qui implique une masse – tout en admettant que seule la condition de masse nulle permet de voyager à célérité c. Non les photons et neutrinos sont des oscillateurs duaux dont les masses s'annulent. Les oscillations entre saveurs, ne font que révéler ce qu'annonce le modèle OSCAR ; ces particules éphémères sont des résonances liées à des considérations d'information (nombre de tachyons). 

Question 172 Mais que devient l'énergie du photon ?

Réponse : L'énergie du photon ne peut pas symétriser à nouveau les oscillateur-tachyons, en dessous du délai imposé par la célérité c,  requis pour un transport d'énergie (ou de masse). Son statut « d'oscillateur transverse » dure aussi longtemps que nécessaire pour « visiter » tous les volumes élémentaires de l'espace-temps. A terme, cette énergie est à nouveau strictement annulée dans le niveau subquantique. Il faut se souvenir que l'énergie d'une paire électron-positron, est 1033 fois plus faible que celle d'un oscillateur-tachyon. Ces derniers étant 1033 fois plus nombreux que toute la matière convertie en photons. Un seul oscillateur-tachyon est un monstre par rapport à un photon (ex-électron). Et pourtant, sa masse moyenne est 1033 fois plus faible que celle d'un électron. Ramené à l'échelle de Planck (qui n'existe pas), le niveau subquantique apparaît comme étant 10120 fois plus énergétique que le niveau quantique. En réalité, le principe d'action nulle veille et le statut dual des tachyons annule totalement l'énergie. Il est cependant possible que les centres groupés et saturés des BECs galactiques, puissent extraire des paires électron-positrons d'énergie 1011 fois supérieure à celle au repos. Cela est effectivement mesuré dans ce que l'on appelle « les rayons cosmiques ». Cette énergie vient de la saturation des centres des BECs qui elle-même vient de la gravitation dans ces deux composantes. Il est très important de noter que c'est le statut asymétrique des neutrinos qui crée majoritairement l'asymétrie des oscillateurs. C'est cette perturbation qui réalise le couplage {BEC-matière}. Sans cela, les BEC seraient de masse apparente nulle et indépendants entre eux. Les photons sont des vecteurs transverses symétriques et donc peu couplés. Les neutrinos sont des vecteurs transverses asymétriques et donc fortement couplés.

Question 173 Donc les BECs serrés se retrouvent dans la condition de départ, c'est-à-dire fusionnés en un seul BEC saturé ?

Réponse : il faut se souvenir que les BECs parfaits (non perturbés par la matière) n'ont pas de masse car tout est annulé par le principe d'action nulle (PAN). Donc pour se fondre ou fusionner, il leur faudrait une certaine quantité de mouvement centripète (un élan). Or une impulsion doit absolument posséder de la masse pour exister. Donc sans impulsion ces BECs devraient se retrouver n'importe où dans l'immensité infinie du monde stochastique non connexe. Il est difficile d'être précis dans cette réponse car nous touchons là à un domaine des plus spéculatif. La seule chose dont on peut être sûr, est le maintient absolu du principe d'action nulle. En effet, toute action même minime est scientifiquement injustifiable.

Question 174 Peut-on dire que ces BECs errants dans le monde stochastique sont anecdotiques et vont finir par s'évaporer ?

Réponse : là il faut se méfier des expressions courantes. On ne peut pas « errer » dans un monde où la dimension 3D n'existe plus. Il faut voir également que le temps ne s'écoule pas dans le monde stochastique. En revanche, dans le monde des BECs errants, la constante de temps des tachyons est toujours de 10-21 secondes. Mais cela se passe dans le référentiel tachyon c'est-à-dire dans une des deux branches de l'oscillateur. Dans ce référentiel oscillateur, aucun temps ne s'écoule. L'absence de temps laisse la place à l'expression statistique. Cela veut dire que sans cette notion temporelle, il peut se passer une infinité d'événements. Parmi ces événement, on doit compter ceux qui concernent l'ultra faible interaction entre les tachyons stochastiques et ceux – constants – formant BEC. On peut donc dire que même pour une interaction tendant vers zéro, la combinatoire infinie, l'emportera toujours.

Question 175 Donc l'évaporation est statistiquement aussi probable que la fusion d'un nouveau BEC-0 saturé ?

Réponse : apparemment oui. Mais rien n'empêche de considérer que tout ou partie des BECs anciens ne soit pas reconduit dans les nouveaux. Cependant la probabilité semble très voisine de zéro.

Question 176 Le monde à suivre peut-il avoir les mêmes constantes que le précédent ?

Réponse : oui mais cette éventualité a une probabilité quasi nulle. Le monde non connexe et stochastique est représenté par une infinité de tachyon-oscillants. Une fusion quelconque est toujours caractérisée par un nombre grand mais fini. Donc aucun nombre fini n'a le pouvoir d'épuiser la ressource de l'infini. Cependant s'il est infiniment répété, il n'est pas interdit d'envisager trouver une résurrection de valeurs constantes déjà utilisées. On touche là à des considérations très spéculatives.

Question 177 On nous parle en ce moment de la matière noire qui pourrait être sous la forme d'axion. De quoi s'agit-il ?

Réponse : un problème insurmontable de symétrie à été découvert à propos de particules appelées kaon. C'est Franck WILCZEK qui a supposé qu'il existait une particule invisible – qu'il a nommé axion – qui expliquerait cette asymétrie. On l'appelle la symétrie CP (charge-parité). On comprend bien ce qu'est la symétrie de charge (+ et –) mais il est moins évident d’appréhender la notion de parité. La meilleure image est celle du miroir qui transforme les coordonnées spatiales. Le modèle standard prévoit que quelques interactions fortes devraient violer la symétrie P. Or ce n'est jamais observé ailleurs que dans l'interaction faible. On rappelle que l'interaction faible est par exemple ce qui se passe lorsqu'un neutron devient un proton en émettant brièvement un boson W, Z + un électron + un antineutrino. Les neutrinos ont des charges neutres et ils sont toujours lévogyres (hélicité gauche) et jamais dextrogyres (hélicité droite). En ce sens il viole la symétrie CP. Cette énigme perdure et on en vient à dire qu'elles sont cohérentes avec l'absence énorme de symétrie entre la matière et l'antimatière...Deux énigmes insurmontables du modèle standard. On a déjà vu que le neutrino représente une trace tangible de ce qu'avance le modèle Oscar. Ce n'est pas une énigme mais juste ce qu'il est logique d'observer. Il n'y a pas plus d'axion que d'asymétrie entre la matière est l'antimatière. En revanche, l'idée de base de la théorie des cordes est juste physiquement.

Elle dit que tout est issu d'un seul type de particule vibrante (oscillante) située dans une autre dimension. Tout cela est nécessaire mais très loin d'être suffisant. Là où le bât blesse c'est la mathématisation à outrance de ce seul concept en oubliant toutes les autres prémisses physiques indispensables. Parler de l'espace-temps dans les seuls termes mathématiques (dérivées aux équations partielles), c'est se condamner à l'ignorance. L'espace-temps représente une construction physique autrement plus réelle que toutes les spéculations mathématiques. Cette construction est complètement décrite et ontologiquement expliquée dans le modèle Oscar. L'espace-temps est l'expression d'un BEC composé d'oscillateur-tachyons-duaux. L'échelle galaxie est l'expression d'un enchevêtrement serré de BECs formant halo (observé). L'échelle univers est l'expression d'enchevêtrements de BECS lâches et (localement) en expansion. Par définition, toutes les particules quantiques sont les images chirales du monde subquantique. Ces tachyons qui maillés forment l'espace-temps-spin, sont également les « parents » des paires électron-positrons. Il n'y a pas d'un côté l'espace/temps et de l'autre, les particules car tout relève du tachyon dual.

Question 178 Oui mais alors pourquoi ne voit-on pas d'anti-matière ?

Réponse : encore une fois, pour aborder cette notion, il convient de le faire dans le cadre de la non localité de l'univers (BELL, BOHM, ASPECT, OSCAR). La clé est assez simple : prenons un neutron. Il est majoritairement composé de 920 paires neutres superposées de création non locale (sinon elles s'annihileraient aussitôt). Au centre, sous forme mi-onde mi-particule est confiné une paire électron-positron, orpheline. Les couches neutres (vibrantes) forment 4 groupes et donc 3 intervalles. La vibration fait que les intervalles se polarisent et induisent en permanence 3 quarks fantômes. Les couches neutres sont faites de matière et d'antimatière. Si on ne prend pas en compte la non localité de l'univers, cela ne pas pas être envisagé. C'est exactement l'erreur fondamentale qui a été commise le siècle dernier. Elle génère de nombreuse énigmes et tant que l' on ne prendra pas sérieusement en compte l'expérience BELL-ASPECT, ces énigmes resteront. On comprend la cause de la force forte. Les forces coulombiennes (électriques) disparaissent totalement pour une figure où les couches sont parfaitement superposées. En revanche, dès que l'on cherche à les séparer (collision) la force apparaît d'un coup puisque les intervalles sont infiniment petits. Encore une énigme levée. De plus, l'induction des quarks est compatibles avec le fait que ces derniers n'existent plus hors de leur confinement.

Question 179 D'accord mais pourquoi le neutron se transforme en proton et jamais en anti-proton ?

Réponse : devant cette énorme énigme, le modèle standard dit que la symétrie de l'univers n'est « pas tout à fait exacte ». Cela veut dire qu'il existerait une énergie (ou action) permanente « tombée du ciel ». Ceci relève de la théologie et non de la science. Les scientifiques (heureusement pas tous) qui suivent aveuglément leurs gourous de l'école de Copenhague ne sont pas sérieux. Le modèle oscar dit le contraire, la symétrie est strictement respectée quand on prend en compte le monde subquantique (donc l'espace-temps). Reprenons notre neutron qui vibre. Comment cette paire neutre confinée et vibrante pourrait longtemps rester confinée dans ce noyau bien plus petit que sa longueur d'onde naturelle ? L'expérience montre qu'au bout de quelque 10 minutes en moyenne, le neutron éjecte un électron (avec un sursaut appelé W, Z et un neutrino) pour faire un proton. Ce dernier forme un atome d'hydrogène avec son électron orbital. Alors pourquoi un proton ? On peut dire aussi pourquoi éjecter l'électron de la paire plutôt que le positron ? La raison est claire. La symétrie parfaite entre le niveau subquantique et le niveau quantique ne peut pas exister. Pourquoi ? A cause d'une raison géométrique toute simple. Le proton et le neutron ont un centre orienté vers le monde subquantique à très faible section, alors que leur périphérie est à plus grande section relative. Cela veut dire qu'une polarisation naturelle existe entre ces deux niveaux. Pourquoi cette polarisation favorise-t-elle l'éjection de l'électron ? Tout simplement parce qu'au départ il existe une chance sur deux pour les deux choix. C'est le hasard qui a fixé ce sens des charges.

Question 180 Mais quand localement on induit de l'énergie suffisante, on crée bien une paire proton – antiproton, pourquoi ?

Réponse : en effet c'est localement possible par croisement des paires neutres. Cette expérience locale, qui dit le contraire de la réalité de l'univers qui n'existe que par sa non localité, a servi de base à l'élaboration du modèle standard à validité typiquement locale. Certains physiciens, quand ils lisent que BELL a déclaré que l'univers est non local, détournent le regard. Ils ne se référent seulement qu'à une autre phrase de BELL qui rejette les variables cachées. Ils n'ont simplement pas compris que cette réflexion ne s'applique qu'à l'équation de Schrödinger que par ailleurs il a jugé comme incomplète....En simplifiant, le terme « subquantique » a été excommunié au profit du terme « vide », complètement dénué de sens....Qui a dit que le moyen âge est loin ?

Question 181 Existe-t-il des liens tangibles entre les règles fondamentales de l'univers et celles qui régissent le monde du vivant ?

Réponse : d'abord, il faut bien réaliser que le monde du vivant est un sous produit de l'univers et que par conséquent, il ne peut que lui ressembler dans ses règles les plus fondamentales. On a déjà traité l'étrange ressemblance entre la règle fondamentale des Fermions Relatifs Voisins (FRV) et l'homochiralité de la vie. On sait que tous les acides aminés du vivant, sont de chiralité gauche. Cependant, si on les synthétise localement on retrouve bien les deux formes énantiomères. C'est à l'image de ce qui distingue les fermions créés localement de ceux qui sont crées à l'échelle cosmique, non locale. Cette ressemblance est cependant limitée car la première concerne l'hélicité et l'autre la charge électrique. 

L'univers OSCAR, basé sur le Principe d'Action Nulle (PAN), n'a d'autre solution que de se créer par fusion découlant de la loi statistique. Dans un autre contexte, plus complexe, le vivant émerge également des innombrables mouvements browniens. Dans les deux cas, la combinatoire est tellement vaste que le règne du stochastique ne peut que déboucher sur une fusion, versus condensat de Bose Einstein (BEC). Du point de vue thermodynamique et de son extension aux lois de l'information, on retrouve les mêmes liens. Le vivant est l'exception dans un monde dominé par l'accroissement de l'entropie de désordre. Dans ce désordre croissant, le vivant se distingue par sa capacité à se tenir en ordre de marche. Il est cependant clair que cette capacité à survivre est à la fois fragile et limitée. Mais le monde du vivant a « inventé » la généalogie qui permet la reproduction évolutive. Dans ce processus on retrouve la notion de mitose, propre au modèle OSCAR d'univers. Les croisements successifs de la reproduction, ouvrent la voie statistique aux évolutions les plus adaptées aux vicissitudes de l'environnement.

Lois fondamentales

Univers

Vivant

création :

locale

non locale

paires électron-positrons

fermion

boson

acide aminé

hélicité gauche

hélicité gauche et droite

oscillation

stochastique

brownien

loi statistique

fusion → BEC

fusion → BEC

entropie

croissante

décroissante

saturation-division

mitose

mitose-méiose


Petit Intermède sur la saga « Rosetta-Philae-Tchouri »


Il faut saluer l'exploit de notre Agence Spatiale Européenne, ESA, (European Space Agency) qui a réussit à poser le petit concentré de technologie appelé Philae, suite à 10 années de voyage dans l'espace. Il aura fallu programmer une trajectoire complexe pour que Rosetta (3000 kg) puisse rattraper la comète « Tchouri » à la vitesse de 18 km/s. Il est intéressant de calculer l'accélération induite par la masse gravitationnelle, à la surface de Tchouri. Voici quelques données que nous allons arrondir pour montrer comment on peut manier ces chiffres pour un calcul mental approximatif de l'accélération (g) à sa surface :

- masse comète : M =1013 kg (on rappelle que « puissance 13 » veut simplement dire 13 zéros)

- rayon moyen : R = 103 mètres soit 1 km de rayon et donc 2 km de diamètre.

La constante de gravitation est : G = 6,67×10-11 m3/kg/s² que nous allons arrondir à 10-10 m3/kg/s². pour simplifier. La notion d'accélération se ressent sur terre par sa valeur de g=9,81 m/s² (10 m/s²) qui fait qu'à chaque seconde, un corps (dense) accroît sa vitesse de 10 m/s. Cela se traduit, pour une personne debout de 80 kg, par une force de 800 newtons sous ses pieds. Le petit exercice proposé ici consiste à trouver quelle est la force d'appui au sol de Philae, sachant que sa masse est de 100 kg (10²) ?

Il suffit de regarder les unités de la constante de gravitation, comparées à celles de l'accélération. Ensuite on peut comprendre que l'accélération est proportionnelle à la masse de la comète. En posant simplement cela : G × M ,  on voit de suite que les unités passent de m3/kg/s² à m3/s². Les kg ont disparu !!  On compare alors avec les unités de l'accélération, m/s² . On voit de suite qu'il convient de diviser par des « m² » ou une longueur élevée au carré , soit (m3/s² / m2 = m / s²). Donc on pose g = G M / R² et on trouve l'accélération régnant sur la comète étudiée. De tête, cela revient à poser :

10-10 × 1013 / (103 = 10-10 × 1013 / 106. Comme les divisions et multiplications des nombres en « puissance» reviennent à des soustractions et additions il suffit de faire : –10 + 13 – 6 = – 3. Cette valeur « en puissance négative » veut dire 3 zéros après la virgule soit g = 0,001 m/s² = 10-3 m/s². Cette valeur (arrondie) donne une idée de la force qui plaque la sonde au sol. La force est de m × g = 100 × 0,001 = 0,1 newtons soit l'équivalent de 10 gramme sur terre.  En fait l'arrondi de G d'environ 1,4 à la hausse et celui du rayon au carré d'environ 1,4 à la baisse, amène un facteur correctif de 2. Ainsi la force d'appui est plutôt autour de 0,05 N soit 5 grammes, valeur plus proche de la réalité.... Attention ce faible effet gravitationnel n'enlève absolument rien à la masse inertielle du robot qui reste à 100 kg. Cela veut dire que pour l'accélérer il faut fournir le même effort que sur terre (ou partout ailleurs).

Amusez-vous à poser au sol une feuille classique A4. Comme elle fait 80 grammes/m², le A4 (divisé 4 fois par 2 et donc 16 fois), le format A4 ne fait que 80/ 16 = 5 grammes. Et bien cette feuille  représente la force qui vous plaquerait sur Tchouri si votre masse était arrondie à 100 kg. Maintenant on peut également se poser la question relative à l'existence de cette constante universelle G. Le modèle OSCAR indique que cette constante vient de la séparation causale des tachyons devenus des paires électron-positrons. Le lien causal qui unissait ces tachyons séparés (très minoritaires) est strictement la cause de la charge électrique (force coulombienne). Le modèle montre que cette charge fossile 1D est strictement (à l'origine) ξ3 fois plus faible que la force coulombienne. Ensuite la mitose (1D) augmente ce facteur du ratio ξ. Et enfin l'annihilation (1D) amène une diminution de la force coulombienne d'un facteur α. Ainsi on mesure bien que la force coulombienne sur une paire électron-positron est ξ4 /α fois plus forte que la force gravitationnelle. Cela est la preuve que cette force est la force fossile des tachyons séparés.

Supplément sur la vitesse escargot du voyage orbital 

Le rayon de la première orbite de la sonde Rosetta autour de la comète, était d'environ, R=10 km. Pour se maintenir au tour de la comète il faut que l'accélération inertielle centrifuge (v²/R) soit égale à l'accélération gravitationnelle centripète (– GM/R²).  Comme les unités de G comporte une longueur élevée au cube, et un temps au carré, on peut donc poser : v² = GM/R = 10–10 × 1013 / 104 = 0,1 m²/s² et donc sa racine est de : 0,3 m/s. Il faut environ 8 km/s pour maintenir un satellite en orbite autour de la Terre alors que sur Tchouri, il suffit de 30 cm/s (~1,1 km/h). Pour faire un tour complet (soit un périmètre d'environ 70 km), il lui faut donc environ un temps T = 67 heures. Comme tout est oscillateur, on peut le traiter comme suit : T = 2 π((R3/ GM)1/2. En revérifiant, plus haut, les unités de G, on voit bien que la division de R3/GM ne laisse plus que du temps au carré. Le facteur 2 π s'explique par le fait que le temps d'un cycle complet, comporte un aller et un retour.

Question 182 On reparle des trous noirs super-massifs qui restent inexpliqués. De quoi sont-ils faits ?

Réponse : tout au long de cet exposé, nous avons souligné le rôle des BECs enchevêtrés faisant galaxie. Le bulbe galactique montre une densité accrue des étoiles et donc des centres des BECs correspondants. On a montré que cet état de chose revenait à recréer un mini univers à partir d'une saturation des points communs zéro. Outre l'intensité de création de paires (plus faible ici) il existe une autre différence : l'espace temps, autour du lieu de création, est pré-existant. Cela veut dire que les paires créées à partir des tachyons, sont soumises à la relativité générale (voir les rayons cosmiques). On rappelle que ces créations sont faites de paires de tachyons séparées, formant paires électron-positrons. Elles existent sous forme imaginaire tant que la séparation subsiste. La dualité la plus fondamentale de l'univers réside dans la notion de {réelle / imaginaire}.


état de la paire

localité

référentiel

action

durée de vie

réelle

oui

oscillateur-tachyon

niveau subquantique

nulle

éternelle si non-séparation

imaginaire

non

électron-positron

niveau quantique

non nulle

tant que dure la séparation

Mais certaines finissent par se croiser (fin de la séparation) selon un angle relatif allant de 0 à 180°. Si les angles relatifs sont à zéro alors les paires voisines peuvent s'associer sans s'annihiler. Si les angles sont à 180° (opposés) alors l'annihilation est de type binaire (totale). Mais le majorité des croisements se trouvent dans des valeurs intermédiaires. Il en résulte une annihilation partielle, fonction de l'angle relatif. Ces paires dégénérées perdent leur fréquence fondamentale de couplage avec les tachyons. Il en résulte une absence de réactions spontanées (hyper fines) qui représentent la condition de visibilité par les ondes électromagnétiques. En revanche, leur aptitude gravitationnelle reste intacte (la partie non annihilée). On montre que cette production de matière noire est très majoritaire. Elle forme des agrégats gravitationnels faibles. Ces derniers forment donc un immense trou noir. Cependant la faible densité de ces « étoiles noires » fait que la gravitation à moins d'emprise. Par ailleurs, on a vu que la 5eme force (celle des BECs) a peu d'emprise sur la matière noire puisqu'elle est moins bien couplée. Tout concorde pour que :

1/ la matière noire de création galactique tend à migrer aux bord du halo (observé),

2/ celle qui est piégée est constamment complétée par les émissions du centre ce qui accélère la croissance du trou noir,

3/ les modèles basés sur la seule masse baryonique, sons démentis par l'observation.

De plus on a vu qu'un autre type de matière noire venait du croisement des galaxies (observé) et donc :

1/ il est logique que la fréquence des croisements baissent avec l'âge de l'univers (observé),

2/ que les croisements font croître la masse noire au détriment de la masse visible (observé)

3/ plus la masse noire est grande et plus la galaxie devient naine (logique)

4/ les naines ont un halo plus grand car elles sont saturées de matière noire (observé).