Qui suis-je ?
qui
above, choose your language and click "back" on your navigator

website hosted by Dominique MAREAU
engineer-teacher-researcher



Book 

"L'univers miroir" ; ISBN 978-1-4717-0906-7 ; 2012 ; april
" Il était une fois, l'univers à partir de rien" ; à paraître prochainement  


Scientific publications

J Physical Mathematics "Improving the Accuracy of Yoshio's Formula Koide" ; 2016/05/03 
GSjournal.net 4807 "Fondational premises to justify a universe model"; 2013/04/16
GSjournal.net 4796 "List of predictions Oscar model"; 2013/04/13
GSjournal.net 4795 "Explanation absence antiproton and gamma rays"; 2013/04/12
GSjournal.net 4788 "Table of scales subquantum"; 2013/04/09
GSjournal.net 4785 "Accuracy of the G magnitude with anomaly magnetic moment electron"; 2013/04/07
GSjournal.net 4780 "Table Scale Universe (TSU)"; 2013/04/05
GSjournal.net 4778 "Periods of the Sun, 24, 160 minutes and 11.7 years"; 2013/04/03
GSjournal.net 4761 "Imposture employment uncertainly Heisenberg"; 2013/03/30
GSjournal.net 4751 "Universe expansion layered spherical symmetry"; 2013/03/27
GSjournal.net 4745 "Fermion relatif status confirmed by temperature of clusters"; 2013/03/24
GSjournal.net 4734 "Galactic filament" ; 2013/03/22
GSjournal.net 4728 "Second type of black hole" ; 2013/03/20
GSjournal.net 4723 "The blur of zero stochastic" ; 2013/03/19
GSjournal.net 4703 "Determinism of nothingness" ; 2013/03/15
GSjournal.net 4694 "Proved continuity scales of universe"; 2013/03/12
GSjournal.net 4688 "The Planck' mass has two solutions"; 2013/03/11
GSjournal.net 4645 "Paradox of the Planck' length"; 2013/03/07
GSjournal.net 4622 "The true-false problem of time"; 2013/03/05
GSjournal.net 4594 "The Planck' length is the fossil interval laeding to proton"; 2013/03/01
GSjournal.net 4533 "The duality of the universe-oscillator"; 2013/02/14



Sommaire de cette section 

Prémisses fondatrices
Le fermion relatif (création non locale)
Le ratio de Planck
La clé du neutrino
Nous sommes faits d'antimatière
Les 8 relations du modèle
Origine des leptons
Ralentissement de l'expansion moyenne de l'univers

Big Bang fractal et énergie noire
Fin de l'expansion de "l'univers-oscillateur"
Modèle OSCAR = MOND + Standard

Naissance des galaxies
Signification physique de la longueur de Planck










Pour tenter de comprendre l'univers, il faut faire un travail de récolement pour recenser toutes les énigmes, mesurées et observées  à toutes les échelles. Voici les 33 questions fondamentales qui ont servi à poser les prémisses du modèle OSCAR. Comme tout est lié dans cet univers, il faut trouver la structure servant de dénominateur commun à toutes ces énigmes. 

Les axes de dualité s'appliquent à tous les domaines et par conséquent, à l'univers. Parmi eux, la dualité {local/nonlocal} joue un rôle clé. A cela on ajoute la puissante notion de symétrie généralisée. Les piliers sont :

1/ le paradigme du fermion relatif non local qui se comporte localement comme un boson. Un boson est toujours dual.

2/ Le ratio de Planck, lié à la mitose d'un premier condensat de Bose Einstein à partir d'un lot aléatoire d'oscillateurs stochastiques 1D qui se synchronisent (refroidissent).  

3/ La robuste notion de dualité est étendue à l'objet univers qui se présente sous deux états :
    a) état préquantique sans constante,  caractérisé par des fluctuations du "rien" matérialisé par des oscillateurs-bosons stochastiques duaux 1D et non connexes.
    b) état quantique  avec constantes induites par la synchronisation-refroidissement d'un lot aléatoire de bosons, formant ainsi un premier BEC instable. L'instabilité se traduit par une mitose accompagnée d'une séparation causale qui contraint (1 et 2).   

prémisses

fondatrices

explications

1

récolement des questions

les plus fondamentales

On ne peut pas penser faire un modèle d'univers sans partir sur une étude complète des questions fondamentales issues des observables.

2

principe de symétrie

Cette notion est très forte en physique. Quand elle est (apparemment) violée, c'est toujours en apparence, ie en oubliant de compter certains éléments subtils. Cette notion appelle celle de dualité. La symétrie doit s'appliquer également dans l'axe des méthodes de recherche : {réductionnisme -holisme}.

3

principe de dualité

Ce principe robuste en physique, doit être étendu à la notion « d'états d'univers » car ce dernier qui contient tout, ne peut que l'avoir initié. La dualité peut s'exprimer par une symétrie chirale.

4

principe d'action nulle

Partir de « rien » c'est respecter strictement ce principe dans le cadre des prémisses précédentes.

5

identification de la localité

et la non localité

Il faut impérativement bien identifier ce qui est local et ce qui est non local. Un des plus grands paradoxes de ce siècle porte sur cette notion. On y trouve également la notion de dualité.


Pour éviter toute spéculation et respecter le principe de démarcation, l'application des 5 prémisses doit se faire à partir du néant. Mais pour cela il faut définir le néant à l'aide des contraintes suivantes :

  • le principe d'action nulle dans la dualité stochastique

  • le principe du rasoir d'Occam

  • l'absence de constante

  • la démonstration qu'il existe une fonction de changement d'état d'univers

  • la démonstration que cette fonction est mesurable dans l'état d'univers quantique.

Sur la base de ces contraintes strictes, on démontre [1, ,....22] que seul un nombre incommensurable de bosons-oscillateurs-duaux-stochastiques-1D (BODS-1) est valide pour représenter le néant. Le principe fort de dualité, contraint l'univers à présenter deux états : {pré-quantique-quantique}.


  


Electron-positons de Création Non Locale


Expérience de pensée



C'est un amendement fondamental du principe d'exclusion de PAULI et de la statistique de FERMI. Il change le statut du FERMION selon son référentiel de création (par paire). Ainsi, à l'échelle cosmique, il apparaît la notion de 
fermions relatifs voisins (Frv). Une simple expérience de pensée suffit à imaginer que des paires originelles d'électron-positon, séparées causalement, donc de Création non locale, deviennent localement des bosons entre voisins. Ces paires formant préalablement des bosons oscillants duaux dont le lien causal a été brisé (contraintes des prémisses).
Quand on expérimente localement la création d'une paire électron-positron, son annihilation à suivre est binaire car l'angle qui sépare leur masse-énergie est 
θ = π.  Cela veut dire que toute la masse est convertie en radiation. En revanche, l'annihilation locale de paires CNL, typiquement fonction de l'angle θ < π qui les sépare, est donc analogique. Pour des condensations entre voisins directs (proton-neutron) θ → 0, l'annihilation est négligeable. Ces paires alternées peuvent donc se condenser comme des bosons. C'est la raison pour laquelle l'hélium 4 (fait de fermion) est un boson. Il comporte 4 × 1840 + 4 paires célibataires (confinées ou pas). Il est boson car 1840 / 8 = 230 (nombre entier).           
Lors de l'expansion, de grandes entités (galaxies) d'origines différentes (angle relatif non négligeable) entrent en collision. Cela provoque une annihilation partielle des particules élémentaires. On montre que cette dégénérescence élémentaire est la seule cause de la matière noire (DM).  Si l'angle relatif tend vers zéro, les fermions deviennent des quasi-bosons. Donc ces paires CNL peuvent se condenser localement et former neutrons et protons.  A cette échelle, l'annihilation devient analogique (fonction de l'angle) plutôt que binaire. Ce simple paradigme est d'une richesse phénoménale et lève d'un coup, plus d'une dizaine d'énigmes fondamentales. Ainsi la matière et l'antimatière cohabitent dans les baryons.
Localement la création de paires électron-positron est totalement différente car elle implique une annihilation totale (de type binaire). voir la figure de séparation causale.



   






Le RATIO de PLANCK
 
ξ

ξ
= 1.54582057656786 ×1011
 
C'est la signature unique de notre univers. De  la constante de structure fine à la très précise mesure de l'anomalie du moment magnétique de l'électron, tous les ratios physiques lui sont rattachés.    L'instabilité du premier BEC (Condensat de Bose Einstein) conduit à sa mitose.  On montre que la mitose consiste à diviser le BEC-0 en ξ2  BEC-fils de même taille mais moins denses.  
Par définition la perte de densité se traduit par une augmentation des intervalles élémentaires  du réseau de tachyons formant le BEC. Sur une couche du BEC, la surface élémentaire est agrandie de
ξ2 et donc l'intervalle, de ξ.  
La mitose fixe le nombre de BEC-fils (hébergeur d'étoiles) et le ratio entre le rayon de l'espace quantique élémentaire (EQS) et la taille du tachyon subquantique. On montre ensuite que les trois paramètres de l'électron ( λe, te, me) sont fixés par la moyenne des paramètres des tachyons stochastiques piégés dans le même point zéro. L'univers dans lequel nous vivons est donc régit par la conjugaison de ces deux sources typiquement aléatoires.  On montre que le ratio de Planck est largement mesuré et correspond à :    

ξ2 = λe / lp = t/ tp  = mP / me 
 α16= 4 π ξ3/3    
c =
λe / te           
G =  λe3 / ξ4 me  te2    
ξ4 / α = [(e² /4 π εo) / (G me²)]  

On montre précisément pourquoi la constante de structure fine
α  est déterminée par ξ. On voit que les ratios {électron / unités de Planck} représentent le premier chemin pour déterminer le ratio de Planck. Il existe 3 autres chemins indépendants qui le déterminent sans ambiguïté, dans le cadre des prémisses fondatrices.  Voir la dualité quantique / subquantique.  

 

La clé du neutrino


La figure ci-après montre que la transition neutron-proton, se passe sur l'axe des évènements. Cet axe est médian entre feuillet quantique et subquantique. Quand l'électron du couple orphelin est émis, on observe (en négligeant son énergie cinétique) :
1/ un boson W dont la masse correspond aux paramètres de cet   axe soit :  2/5 me √ξ. Sa durée de vie est donnée par : 5/2 te / 4 π √ξ  = 2.6.10-15 s.
2/  un antineutrino est sensé emporter le différentiel de masse (N-me-P) = 1.53 me = 0.78 MeV. Cela pose un problème de fond car le neutrino se propage strictement à la vitesse de la lumière et donc sa masse devrait être nulle. En réalité, le neutrino emporte la masse virtuelle qui provient du niveau subquantique. Ainsi la partie massique se trouve quasi complètement à ce niveau et porté par le neutrino subquantique. Le couple {neutrino-antineutrino} est comme une particule de Majorana mais avec cette asymétrie induite par le miroir déformant subquantique.     

3/ un proton dont l'habillage virtuel est paradoxalement plus important. En effet, en unité {masse électron mesurée} le proton a un ratio de  1836.15  pour un ratio "oscar" de masse nue de 1841. Le taux est de 1841 / 1836.15 = 1.0026. Alors que pour le neutron on a  : 1842 / 1838.68 = 1.0018.  Cela veut dire que le couple {neutrino-antineutrino} apporte de la masse virtuelle au proton à peine formé. Cela se comprend si l'on considère que la charge du proton génère plus de pertubation au réseau subquantique que la neutralité du neutron (voir courbe).    

4/ une moindre polarisation du réseau subquantique par la charge positive du proton qui tend à équilibrer celle négative, de l'électron. Cependant il ne le fait pas complètement car la neutralisation des 1840 charges du proton, de type dynamique, n'est pas parfaite en tout lieu.
     

Le photon propage l'énergie de transition, relativement à l'axe des évènements (axis events).  Ainsi la célérité intrinsèque du photon est celle du niveau subquantique. Cela veut dire qu'en dessous du volume élémentaire, λe, la cérité est supérieure à c.   Mais sa propagation se fait dans le temps propre (te)  du réseau oscillant du BEC. Ainsi  on a  la constance de  cλe / te. On rappelle que la constante de Planck est donnée par le réseau subquantique, selon :

h = mo λe R / te    
avec la masse du tachyon  ξ3  fois plus faible que celle de l'électron et R,  ξ fois plus grande que la longueur de Compton.  Cette relation montre que la période T est commune et confirme que le BEC est formé par  ξ9 tachyons organisés en ξ3 couches concentriques et dynamiques de  chacune, ξ6 tachyons. Le modèle OSCAR montre qu'il est impossible de comprendre la physique de l'univers en la fragmentant en petits sujets indépendants, car tout est intimement lié.
   

variation de la charge dans le neutron




Nous sommes faits d'antimatière

We are made of antimatter

Le modèle OSCAR est bâti sur des prémisses fondatrices dont le pilier principal est la révision du statut de fermion. Pour bien comprendre le propos, il faut revenir aux expériences locales très précises qui nous ont égarés.

1/ Pauli propose en 1925 le principe d'exclusion selon lequel les électrons ne peuvent pas se trouver au même endroit dans le même état quantique. Des expériences ont été faites en injectant de l'énergie au « vide »*. On s'est aperçu que cela pouvait créer une (ou plusieurs) paire de particules électron-positron. C'était la confirmation de E = m c². Mais dès que les éléments de la paire se retrouvent réunis, ils s'annihilent.

2/ On a conclu que les paires électron-positon ne pouvaient cohabiter.

3/ Cependant, à l'époque, on ne faisait pas la différence entre ce qui est local et non local. Pourtant une simple expérience de pensée (à la Einstein) permet d'envisager la possibilité, qu'à l'origine de l'univers, des paires électron-positrons aient pu être créées tout en étant, chacune, séparée causalement lors d'une brusque extension radiale. On imagine une distribution spatiale dans laquelle tous les éléments voisins sont de signes alternés {+ - + -}. Ainsi un électron de la paire séparée (A) côtoyant un positron de la paire séparé (B), s'attirent mutuellement mais ne peuvent s'annihiler. Ces électron-positrons voisins perdent ainsi localement leur statut de fermion et deviennent des quasi bosons.

4/ Ces bosons sont des fermions de création non locale, devenant localement des quasi bosons.

5/ Que font des bosons qui s'attirent mutuellement ? Ils se condensent en condensat de Bose Einstein (BEC). Ainsi les protons et neutrons sont des pseudo BECs. Ce que la QED considère comme des gluons sans masse, peuvent tout à fait être des fermion-bosons locaux.

6/ Pourquoi pseudo BEC ? Tout simplement parce que les conditions du taux de condensation sont liées à un paramètre de l'univers dont la valeur est forcément aléatoire. Ainsi le modèle montre (voir le modèle de proton) qu'il comporte 8 couches neutres formant 1840 unités ou 920 paires. Ensuite pour le proton, un positron célibataire est confiné (1840+1), alors que pour le neutron on a un couple orphelin (1840 + 2).

7/ Pourquoi la masse de l'électron est-elle mesurée à 1836,15 électrons et pas à 1841 ? Tout simplement parce que l'unité {électron mesuré} est faussée par l'habillage virtuel. L'électron nu est forcément plus léger. Donc, le proton mesuré en unité {électron nu} est de 1841. On a ainsi directement le taux d'habillage de l'électron, en faisant le rapport : k=1841/1836,15 = 1,0026.

8/ Comment le mesurer pour être sûr ? Il y a plusieurs mesures qui le confirment. En voici deux : la première est celle qui donne le rayon du proton en considérant 8 paquets de 230 paires ou 4 paquets de 460 éléments. La valeur est compatible avec la mesure, révisée dernièrement. La seconde mesure est celle de l'anomalie du moment magnétique de l'électron. Avec ce paradigme on retrouve la mesure très précise, avec 13 décimales (sans utiliser l'approche numérologique du modèle standard). En fait il y d'autres preuves à travers la fécondité inouïe du modèle, à toute les échelles (voir 10).

9/ Mais ensuite une expérience semble ruiner l'idée développée : on s'est aperçu que l'on pouvait créer localement une paire proton-antiproton. Alors on s'est dit que l'antimatière était formée d'un atome d'anti-hydrogène. Mais en fait, cette symétrie composite n'est que le croisement local de paires croisées d'électron-positrons. Il faut réaliser que localement on peut toujours injecter tout niveau d'énergie dans les limites expérimentales classiques. Mais puisque le proton est composite on doit en conclure que ce qui préside au début de l'univers c'est l'énergie de la seule particule élémentaire et stable qui existe, la paire électron-positron. Ainsi, l'expérience du proton-antiproton est un artefact dont la validité reste locale. C'est tout le danger de l'approche purement réductionniste. Avec toute la rigueur du monde on arrive à de fausses conclusions. On en vient alors à violer le plus beau des principes, la symétrie. On en vient à conjecturer l'idée spéculative d'une « très légère asymétrie » dans une annihilation primordiale. Non l'antimatière est mélangée en part strictement égale dans les baryons. Ainsi, l'univers avait une probabilité de ½ pour s'équilibrer avec un électron négatif non confiné. Une fois ce choix (aléatoire) établit, il devient la règle général à grande échelle.

10/ Oui mais l'expérience montre, par exemple avec du fluor, que des positons sont émis et s'annihilent au premier électron rencontré (via le passage par un fugace état positronium). Alors pourquoi s'annihilent t-ils ? Tout simplement parce que ce type de positron est de création locale par paire. L'électron de la paire reste tout simplement confiné dans l'atome de fluor. LA QCD a d'ailleurs un problème avec la durée de vie du positronium. En effet, pour que l'annihilation puisse se faire avec le premier rencontré, (qui n'est pas celui de la paire créée), il lui faut faire un transfert d'énergie avec l'original confiné dans l'atome de fluor.

11/ En appliquant ce raisonnement fécond, on résout d'emblée une multitude d'énigmes, soit :


          11-1 L'énigme de l'antimatière

          11-2 La symétrie est ainsi exacte et il inutile d'invoquer une légère asymétrie. Légère ou pas, cette idée n'est pas justifiable.

         11-3 La matière noire découle naturellement de cette loi quand on regarde les collisions de galaxies qui forment un angle non négligeable entre leurs origines respectives. Le taux d'annihilation élémentaire devient relatif à cet angle. Le lien harmonique avec le « vide » est rompu    et donc la matière n'a plus d'émission spontanée. Cela est bien observé ! La masse d'un électron, réduite de quelques points, ne résonne plus avec le « vide ».

          11-4 La cause de la gravitation par la séparation causale sur la circonférence (2πR) de la première couche du BEC primordial qui comporte ξ8= ξ4tachyons, d'intervalle λ0.  On a alors le ratio {coulomb/grave} = R / λ0 qui vérifie que le gradient du champ coulombien est bien l'expression du champ gravitationnel.

         11-5 Les sursauts gamma sont là pour indiquer l'intensité du taux d'annihilation

         11-6 La température dans les amas dépend ainsi de leur taille car cela revient à fixer un angle originel. Si l'amas fait 1 % de la taille de l'univers, alors la température sera de 1 % de celle de l'électron. Cela est bien observé.

         11-7 L'énigme du retard d'annihilation de l'orthopositronium.  

        11-8 La cause de la condensation des paires électron-positron en protons et neutrons.

12/ On retrouve exactement le même raisonnement (local non local) avec les acides aminés. Localement on sait synthétiser les deux énantiomères (gauche – droite) des acides animés de la vie. Cependant la nature ne nous en présente qu'un seul.

13/ Le neutrino ne nous montre que son hélicité gauche. Le modèle OSCAR nous dit pourquoi.

14/ La polarisation du « vide » dépend du différentiel du taux d'habillage entre électron et proton. La symétrie de charge entre ces deux particules est perturbée par le différentiel d'habillage virtuel.

A l'échelle du BEC (150 milles années-lumière)  la non localité est  liée 

à l'écoulement alternatif du temps des oscillateurs subquantiques


Tableau résumé :
expérience création locale création non locale et séparée
paire électron-positron fermion, annihilation boson voisin, condensation
proton (+ anti) croisement de paires électron-positrons composé d'électron  et donc condensation second temps
positon émis s'annihile avec premier électron reste confiné (polarisation du vide)
anti hydrogène artefact local un seul niveau d'énergie donc n'existe pas

* Au mot "vide" nous préférons "subquantique".

Les 8 relations fondamentales du modèle

The 8 basic relations model

Avec α = 137.0359996803 et  ξ = 1.54582057656786.1011



A cela il faut rappeler le modèle de proton dont le rayon (rP) est directement lié à ces 8 relations.

 rP = λe / 460 + λe / 8 α2               (9)

Avec 460 = 1840 / 4. La relation (8) montre que l'anomalie du moment magnétique de l'électron est légèrement variable au cours du temps cosmologique. Cette anomalie dépend de l'influence virtuelle qui est liée au taux d'habillage. En faisant le ratio des taux d'habillage {muon / électron} seule apparaît  l'anomalie de la particule de base (l'électron lourd qui sert d'unité).  En fait (2-ln ξ8/207) donne le produit du taux d'habillage virtuel par le  taux d'anomalie. Ensuite en divisant par le taux d'habillage de l'électron (1841 ξ2 / α12), seul apparaît, le taux d'anomalie.  Le muon est une particule fugace liée à la résonnance subquantique induite par le nombre de paires électron-positron d'origine (proche du nombre de photons après annihilation). On peut également l'interpréter de deux autres  façons :

-  (2ln ξ8 / 207) peut s'écrire (28 ln ξ / 207) dans laquelle  ξ représente le ratio d'énergie transmissible {subquantique / quantique}.
-  (2ln ξ8 / 207) peut s'écrire (2 ln ξ9-1 / 207) dans laquelle  ξ9 représente le nombre de tachyons dans le BEC auquel on soustrait le ratio ci-dessus,  ξ . Ce choix est indécidable mais les différentes solutions sont des reflets exacts, les unes des autres.

En posant : kμ = 207 / ln ξ8 ; kP =1841 / (α12/ ξ2) et kB = (α+π) /ξ ,  on obtient une forme plus explicite de la (8) :

             αe = (2 kμ − 1) / (kμ kp) −kB         (10)

soit :
1,00115965218843

Elle est située dans l'écart de confiance de la valeur expérimentale : 1.001159652181(7),  selon PDG 2008 (Particle data Group). Elle est 100 fois plus précise que celle issue du calcul du modèle standard qui relève de la numérologie. 

La relation (10), sans le terme correctif, affiche déjà une précision de l'ordre de 10-9.  Ce résultat est surprenant et pourtant, selon ce modèle, on mesure toujours des ratios relatifs au seul électron. Cela veut dire que la mesure de l'anomalie du muon (1.00116592080) tient compte de celle de ses couches superposées. On mesure donc l'anomalie de l'électron célibataire, légèrement augmentée (2.10-5) par l'influence non nulle de ses couches neutres constitutives. La forme de la (10) produit le ratio global des ratios anomalies {masse virtuelle et moment magnétique}.    

Le muon est un lepton (pas de force forte) car  le nombre résultant de paires électron-positron,  nues (206),  n'est pas divisible par 8 pour former 4 paquets de paires neutres imbriquées. En revanche, le pion π (134.976 MeV), équivalent à 264 masses élémentaires (en unité electron nu) est bien divisible par 8 et produit donc des quarks (u et dbar).  

Le proton n'est pas une résonance comme le muon  mais un condensat de paires électron-positrons de création  non locale. Le nombre est directement fixé par la règle de division (mitose) qui fait loi partout dans le modèle. Ce nombre (taux de condensation) dépend strictement de la surface élémentaire actuelle qui vaut  ξ2  fois celle d'origine et divisée par l'élargissement d'intervalle intervenu en 6 étapes en 2D, soit : α12.  On a le taux de condensation forcé par la mitose  :

α12/ 4 ξ2 = 458.8

Dont le nombre pair entier d'électrons condensés qui correspond  est 460 comme le prévoit la relation (9) ci-dessus. Cela justifie l'exposant de la constante de structure fine : 16 = 53 + 1 dans la relation (4).  Ensuite, le terme correctif est une contrainte incontournable du modèle. Il est lié au nombre de BECs )  présents sur la circonférence du BEC-0.  En 2D (sur la première couche) on a  π/ξ et après l'annihilation, on a : α/ξ. Cela veut dire que les paires électron-positron de chaque BEC-étoile, ont une masse réduite d'un taux de l'ordre de 1.10-9. Cela est compensé largement par l'habillage virtuel dont le taux est de l'ordre de 1,0031. Mais l'anomalie liée à ce taux virtuel, en dépend forcément.     
 
   
 


Origine des leptons

Origin of leptons


On a vu que selon le modèle Oscar, dans le  tableau des fermions, l'électron occupe une place privilégiée. 


Le modèle standard n'explique pas l'origine des fermions. Pour les leptons, le modèle OSCAR considère que la chaine de désintégration tauon → muon → électron est émaillée de créations locales sous forme d'assemblages de paires électron-positron qui s'annihilent dans un laps de temps très court. La durée de vie du tauon est de  2.8.10-13 s. Ce temps est plus court que celui de l'orthopositronium (1.42.10-7 s) ou de celui du muon (2,2.10-6 s).  On obtient le tableau suivant :

Ce tableau explique pour la première fois la source des masses des leptons. On voit que les nombres pairs exprimés en unité "électron nu" ne sont pas divisibles par 8 (comme pour les pions ou le proton) et ne peuvent donc induire des quarks.  Muon et tauon sont formés de paires neutres d'électron-positron, issues du tissu subquantique à différentes échelles. L'électron célibataire donne la charge négative. La coïncidence numérique entre électron (e), muon (m) et taon (t), vue par Yoshio KOIDE, de type :  (e+m+t) / (√e+√m+√t)2 ~ 2/3,  semble être une approche numérologique plutôt que physique. Pour évoquer la masse du neutrino il faut tenir compte de son reflet dans le niveau subquantique (voir la rubrique au sommaire).  L'anomalie du moment magnétique du taon est ici supposée être proportionnelle à l'écart du muon avec l'électron dans le rapport des masses.

Aparté sur le proton

On rappelle ici que le modèle oscar explique la faible anomalie du proton en rapport avec le modèle en 4 couches, qui prédit son rayon avec précision. Le modèle standard pose :

μp = gp e h / 4π mp
   
avec gp = 2.79284739,  l'anomalie (standard) du proton. La même relation avec "oscar", en substituant h à sa vraie définition,  se pose comme suit :

μp = gp e c me λe /4π mp
ou

μp = gp e c λe  / 4π P

ou

μp = gp C λe  /  P

Avec P = mp/me et C = e c / 4π  on voit bien que gp vient corriger P à la baisse. Comme selon le modèle oscar de proton , rp ~ 4 λe / P, on peut écrire :

μp = gp C rp  / 4

Ainsi le rayon moyen du positron célibataire (rpc) se détermine par :

rpc rp (gp / 4)

qui situe le rayon de l'onde sphérique du positron célibataire confiné à l'intérieur du proton (rp / 1,43),  en parfait accord avec le modèle "oscar" du proton. Ainsi nous mettons en évidence que le rapport de masse (au numérateur) n'est pas un paramètre valable dans ce type de calcul. Le proton possède un moment magnétique faible tout simplement parce que son positron célibataire est confiné dans un rayon plus petit que celui du proton.  Ainsi  la véritable formule du moment magnétique du proton est relative à celle de l'électron (libre) :

μp =
μe  rpc / λ

Mais à l'instar du tauon, l'anomalie du proton devrait se situer légèrement au dessus de celle de l'électron libre. En suivant la même règle que précédemment, l'écart d'anomalie se compare avec celui du muon, d'un facteur (1841/207).  Il devrait donc se situer vers un taux de : 1,001215. Ainsi, l'énigme de l'anomalie du proton est résolue par la remise en cause de l'utilisation de h  qui masque l'action des paramètres de l'électron (ici le positron confiné). (h est l'archétype du faux ami).  La parité de charge (électron/proton) , pourtant vérifiée au niveau quantique, n'empêche pas une certaine asymétrie subquantique révèlée par le (léger) différentiel d'anomalie magnétique.  

Retour aux leptons
  

Comparaison des durées de vie moyenne entre leptons

On peut voir ici la confirmation que les leptons sont des empilements de couches de paires d'électron-positron créées localement. Elles se comportent comme les positroniums avec une durée de vie moyenne déterminée par le nombre d'éléments à annihiler. Le temps relativement long du muon s'explique par le fait que son produit de désintégration est limité à un électron + {antineutrino e + neutrino muon}. Ce sont ces derniers qui répartissent dans tout l'univers,  la masse des produits annihilés, très majoritairement, au niveau subquantique.  




Ralentissement de l'expansion moyenne de l'univers


slowing the average expansion of the universe


Récapitulatif des observables et de leurs interprétations :

1/ On observe une accélération de l'expansion de l'univers dans la bulle de  notre horizon cosmologique.

2/ Cette accélération est bien réelle mais on en déduit (sans preuve) qu'elle représente le taux moyen d'expansion.

3/ On en conclut qu'il convient de rajouter un terme sous le nom de "constante cosmologique" dans l'équation d'Einstein pour "tenir compte" de cette mystérieuse "énergie noire".

4/ On envisage naïvement un univers en expansion infinie.

5/ Les derniers relevés de WMAP indiquent que le nombre d'onde (2) est très faible. La faiblesse de cette première harmonique (quadripole) indique un univers fini sinon les nombres d'onde (2 =4 et 3 = 8) seraient à forte dominance. Cela implique que l'univers n'est pas infini !

6/ On détecte une anisotropie de l'accélération dans la constellation du Petit Renard. Dans cette direction le gamma semble plus élevé.

7/ Si l'observation (6) est confirmée, c'est l'abandon du paradigme simpliste appelé "principe cosmologique". Le penchant réductionniste (sans prémisses physiques fondatrices),  ainsi remis en cause, fait trembler les plus conservateurs des cosmologistes.   

8/ la Voie Lactée possède une vitesse relative (620 km/s) au fond diffus qui fait qu'elle se dirige vers la constellation du Centaure (Grand attracteur).

9/ Dans la direction opposée de (8) on observe vers l'Eridan, un grand trou vide de 1 milliard d'années-lumière. 

On voit que deux observations (1 et 6) sont d'emblée mal interprétées. Par ailleurs personne ne fait le rapprochement entre (8 et 9).

La fascination mystique du zéro et de l'infini

Il est heureux que ces observations tendent à ramener un peu de sagesse dans la communauté scientifique. Comment peut-on envisager une expansion infinie ? Raisonnons un peu : chacun sait que matière et antimatière sont strictement paritaires (la base absolue de la symétrie). Donc une séparation causale initiale ne peut qu'être provisoire et la notion d'infini n'est pas compatible avec le recouvrement futur des paires causalement séparées.

Ensuite, on retrouve encore ici, l'esprit réductionniste : "ce que je vois dans l'horizon cosmologique doit être étendu comme tel à l'univers entier".

La géométrie de l'univers

L'isotropie observationnelle est presque parfaite, c'est un fait. A première vue cela semble écarter un univers à symétrie sphérique car la coïncidence de nous trouver en son centre (ou proche) est à écarter. En revanche, la géométrie sphérique peut-elle offrir une quasi-isotropie pour des coordonnées quelconques, sous certaines conditions ?

En fixant  la direction de l'éridan comme celle du centre de l'univers sphérique
on obtient des coordonnées cohérentes avec les conséquences du modèle
de l'univers en couches de gradient d'expansion dans lequel la quasi-isotropie
n'est qu'une apparence. On notera que Liitle fox (Petit Renard) fait un angle de
90° avec l'axe : éridan => Grand Attracteur. On rappelle que le modèle est bâti sur la dualité
 cyclique de  l'état  de l'univers. L'état quantique (avec constante) dont nous sommes faits, possède
 un centre matérialisé  par les restes fossiles (trou noir éridan) du  premier condensat de Bose Einstein
instable issu d'une superposition aléatoire d'oscillateurs stochastiques..     


La réponse à la question ci-dessus est positive et nous allons voir qu'il n'y a rien de mystérieux dans cette accélération car elle est compensée par une décélération symétrique  des couches en avance (majoritairement hors de notre horizon cosmologique).  Encore une fois, non seulement  l'explication n'est pas déconnectée de l'ensemble du modèle mais elle en est une conséquence directe. On a bien le schéma suivant : contraintes du modèle + observations = explications du phénomène.  Une équipe de cosmologues (dont des Français) a d'ailleurs détecté un ralentissement de l'expansion en octobre 2012. Il est difficile de savoir si cette mesure concerne le ralentissement lié aux collisions où le début du  ralentissement des couches en avance.  
(à suivre).


 Big bang fractal et énergie noire


Big Bang and dark energy fractal

1/ Pourquoi l'univers est-il en couches de gradient d'expansion ? On a vu que le premier BEC cosmologique était instable (aléa du terme de densité de bosons). Cette instabilité se traduit par une mitose selon la suite de Fibonacci formant un fractal de Sierpiński, lié au nombre d'or.  On a la suite de causes à effets :

surdensité bosons du BEC-0 → mitose → suite Fibonacci →  fractal d'or → tenseur  des vitesses → expansion en couches 

La mitose fractale produit un champ de gradient des vitesses, matérialisé par des particules élémentaires chacune dotée d'une quantité de mouvement unique.


Tous les vecteurs (1, 2, 3,...n) ont une quantité de mouvement

élémentaire strictement égale. La projection radiale (1) est maximale

alors que (2) est faible et que (3) est nulle, après collision.

Ainsi il se créé un tenseur (champ de projections radiales). Cela se passe très différemment du déroulement d'une explosion où les trajectoires, purement radiales, ont peu de chance de se croiser. La forme fractale, au contraire génère des collisions dont l'angle relatif est d'autant plus grand qu'il est précoce.

2/ Observons-nous ces collisions ? Oui et en plus, toutes les observations confirment la loi :

précocité = grande fréquence des collisions + création de matière noire

Pour une collision purement tangentielle, la résultante d'expansion radiale est nulle. Par symétrie il existe des trajectoires purement radiale dotées d'une résultante radiale maximale. Ainsi, la forme fractale induit un spectre continu de projections radiales allant de zéro à 1. Cela créé une succession de fronts d'ondes sphériques.


3/ Par quoi ces couches sont-elles matérialisées ? Elles sont matérialisées par des BEC-fils enchevêtrés formant le substrat subquantique de l'univers. Il existe donc des couches en avance et des couches en retard. Les couches en avance étirent (déchevêtrent) les BECs constitutifs.

4/ Qu'est-ce qui fait la cohérence du substrat ? On a vu que chaque BEC comporte une force centripète, mesurée sur la sonde Pioneer 10. La perturbation de la matière tend à briser la symétrie des oscillateurs tachyons. Le réseau subquantique réagit par une force qui tend à ramener  toute la matière au centre. Cela se traduit également par une condensation des groupes de BECs, par enchevêtrement. Au contraire, les vitesses différentielles entre couches tendent à les déchevêtrer. La déformation est de type mixte à dominance plus plastique qu'élastique. Il y a donc deux forces contraires qui tendent à s'équilibrer. Il est intéressant de noter que les mesures de Pioneer 10 confirment que cette force ne dépend  linéairement que de la vitesse relative. Cela veut dire que la rigidité élastique réagit à toute augmentation du gradient de vitesses entre deux couches successives. C'est une garantie de la bonne continuité de la cohérence du substrat. 

5/ Quelle est la conséquence d'un tel équilibre ? C'est tout simplement la tendance à l'homogénéisation des vitesses autour d'une expansion moyenne. Pour se faire les couches en retard sont forcées d'accélérer et par symétrie, les couches en avance (hors de l'horizon cosmologique), sont forcées de décélérer.

6/ Quel est ce trou dans la figure ci-dessus ? C'est la trace (agrandie d'un facteur 6) fossile du BEC-0. Il est bien observé à 7 G.a.l. de la Voie Lactée, en direction de l'Eridan.

7/ L'univers a t-il un centre ? Il faut poser la question autrement car la dualité s'applique également à l'univers. On rappelle qu'il a deux états : a) un état pré-quantique sans constante (stochastique) ; b) un état quantique avec constante. Le premier n'a pas de centre (ni de continuum masse-espace-temps). Le second, dont nous sommes faits, est né d'un BEC primordial instable, qui est le centre observable.

8/ Alors pourquoi cette quasi isotropie observationnelle ? Tout d'abord voyons le principe général. En regardant vers le trou de l'Eridan nous recevons ses photons émis il y a 7 G.a.l. Il est donc naturel que nous puissions voir au delà de ce trou à une limite déterminée par la vitesse de la lumière. Si le décalage vers le rouge est maximum pour un lieu symétrique à notre position, c'est que le différentiel des vitesses d'expansion est égal à c. Cela veut dire que le substrat local de la Voie lactée, possède une vitesse d'expansion absolue à environ c/2. On note que notre horizon dans la direction de l'Eridan, possède la même accélération d'expansion que nous.

En regardant ensuite à l'opposé, vers le Grand Attracteur, nous voyons en limite, un lieu où le différentiel des vitesses d'expansion est strictement égal à c. Cela veut dire que ce lieu possède une vitesse d'expansion absolue de 1,5 c. Localement Il ne présente pas d'accélération d'expansion. Cependant l'étirement du substrat fait que les photons progressent moins vite relativement à un substrat statique. Cet effet est mesuré comme étant une accélération. C'est une équation de la forme de celle de l'escargot avançant sur un élastique en cours d'étirement.



Dans laquelle c'est la célérité c qui joue le rôle de l'escargot et E qui quantifie le coefficient d'étirement du substrat fait de BECs enchevêtrés.

9/ Que se passe t-il dans la constellation du Petit Renard ? C'est une direction orthogonale à l'axe Eridan–Grand Attracteur. Bien que l'axe de cette observation soit tangentiel, l'effet retard des photons en provenance de ce lieu amène la trajectoire à décrire une courbe dont l'origine est le centre. Ainsi la ligne de l'horizon tend à s'éloigner plus vite que dans l'axe radial. Il est donc possible qu'une anisotropie de l'accélération apparente soit plus importante que dans l'axe radial.

Plus généralement on peut dire que :

1/ dans la bulle de notre horizon tout est (ou apparaît) en accélération.

2/ au delà de cette bulle, une partie est en cours de décélération

3/ Compte tenu de notre position, la bulle ne peut être une sphère parfaite.

4/ Pour un observateur plus rapprochée du centre, les mêmes effets seront vérifiés

5/ la valeur moyenne de l'expansion est plutôt en phase de ralentissement car les dernières mesures confirment bien que la masse noire augmente avec l'éloignement. On rappelle que la conséquence directes des prémisses fondatrices (voir statut des fermions de création non locale) est la création de matière noire. Encore une fois, comme la distribution du champ de vecteur d'un tel fractal, est uniforme, cela rend rare toute direction particulière. La direction radiale pure (couches en avance) est minoritaire. Il vient que l'inertie de l'ensemble des couches en retard doit l'emporter pour forcer l'ensemble au ralentissement. La gravitation globale joue ici un second rôle.

10/ Le tenseur du au fractal n'est-il pas une sorte de gravitation ? C'est exactement cela. Explication : 

1/ La gravitation est née de la séparation causale des paires électron-positron de la première couche du premier BEC.

2/ le déroulement {instabilité + mitose + nombre d'or + fractal} est la source de ce tenseur qui créé des couches dont c'est l'effet retard qui l'emporte.

11/ Est-cela les 74 % d'énergie noire, évoqués par le modèle standard ? Oui sauf qu'au demeurant ces 74 % sont faits de matière noire, qui est bien plus importante dans le passé que dans les galaxies environnantes. Les dernières observations vont tout à fait dans de sens. Quand le modèle OSCAR fait le bilan de la matière, il tient compte d'un ratio de matière noire (global), 25 fois plus important que la matière visible. Dans les galaxies contemporaines, ce ratio est plutôt de l'ordre de 5 fois.


suite 1

 Notre bulle d'horizon dans l'univers,

une apparence d'isotropie


Il est probable que la légère anisotropie mesurée en direction de la constellation du Petit Renard soit confirmée, y compris dans la direction opposée.  Selon le nombre de photons émis lors de l'annihilation primordiale, le rayon réel de l'univers est de 78 G.a.l. (au lieu de 47 pour le modèle standard).  La vitesse canonique (non relativiste) d'éjection des particules élémentaires est toujours c mais s'additionne à chacune des 6 étapes fractales. Les couches les plus en avance, progressent donc à une vitesse d'expansion maximale de 6 c. Sans la décélération attendue, le rayon actuel serait de 80 G.a.l. au lieu des 78 prédit par le modèle OSCAR. On rappele que selon le modèle, la première couche du BEC-0 s'est trouvée saturée par chevauchement des site des oscillateurs voisins. On montre que cela revient à considérer que la période (te) typique d'un oscillateur est multipliée par la racine carrée du nombre total d'oscillateurs soit :  M/me ou ξ8 / α3 pour devenir  la période le l'oscillateur univers. Avec ce calcul imposé, la demi période de l'univers est de 18,2 G.a. Elle correspond  à l'amplitude maximale où l'expansion moyenne devient nulle.   
Selon cette interprétation, la Voie Lactée est donc le résultat d'une collision précoce (donc très banale) avec une autre galaxie primordiale. La matière noire, très majoritaire juste après la collision, s'est maintenant dissipée pour ne plus représenter que 5 fois la matière ordinaire.  

Avec Ro,  le rayon d'amplitude maximale de l'univers. La pente des courbes bleues est plus forte car la masse (noire) de ces couches est plus faible que celle des couches rouges (en retard pour cause de collisions à grand angle).  

suite 2

12/ Quelle est cette quantité de mouvement unique des particules élémentaires évoquées à la question (1) ? Tout simplement la quantité fondamentale, E = me. Quand Einstein annonce cette fameuse équation, elle est sous la forme générale : E = m c²  où m est quelconque. Ici nous disons que :

a) la masse de l'électron ou du positron est la seule et unique masse élémentaire issue d'un tachyon séparé de la première couche.
b) cette énergie est liée à la vitesse d'expansion relative à son émetteur v = n c {n = 1, 2, 3, ....6} qui est une des branches du fractal. Elle est totalement différente de celle qui est relative au substrat (BEC-fils) car la particule est en expansion covariante avec son BEC-hôte.
c) Ainsi l'énergie de masse (déduite mais jamais expliquée) est celle qui est relative à l'émetteur.
d) l'émetteur est une des  branches du fractal, qui elle-même possède une vitese d'expansion. Dans ce cas, les vitesses sont additives.         
e) le lorentzien s'applique relativement au BEC-hôte et plus précisément aux espaces élémentaires (intervalles) du réseau de tachyons qui le forme. Il ne s'applique pas du tout à la vitesse d'expansion.   

  à suivre....



Suite 3

Fin de l'expansion 

de "l'univers-oscillateur"


End of the expansion of the "universe-oscillator"

13/ Y-a t-il un lien entre la réponse (11) ci-dessus et la durée d'expansion ?  Oui car relativement à la matière visible, les couches en retard ont un taux de pondération de 25 pour la matière noire alors que les couches en avance ont un taux de 5 (taux de production interne comme la Voie Lactée). Ainsi la moyenne pondérée des vitesses d'expansion doit se faire avec le poids (statistique) de la matière noire. L'équation est de la forme :

                                                        Période trou noir = période oscillateur

En cohérence avec la relation (4) ci-dessous, la moyenne pondérée des vitesses d'expansion (entre 1 et 6 c) est c comme utilisé dans la relation (2) qui donne une demi période,  TU = 1,32 fois l'âge actuel (18,12 G.années). Le premier terme est celui d'un univers « trou noir » et le second terme est contraint par le modèle qui est cohérent avec la mutualisation des masses des oscillateurs particuliers en un seul et immense oscillateur. Cela confirme que la moyenne des projections radiales des vitesses doit être pondérée avec les masses noires, ce qui revient à dire que c'est la quantité de mouvement qui commande l'univers oscillateur. Ainsi la moyenne pondérée des vitesses n'est plus :

Dans laquelle est attribué le poids minimum, 5 à la vitesse 6 c et le poids maximum, 25 à la vitesse 1 c. Cela revient à une vitesse moyenne compatible avec la relation (2). 

14/ Que se passe -t-il après la fin de l'expansion ? A ce moment, la vitesse moyenne d'expansion est nulle mais  les couches en avance et en retard continuent de se comprimer pour former à terme une coquille. Ce  terme, certainement très lent, amène ensuite au recouvrement total des masses séparées. Cela revient à terminer le cycle par une annihilation totale y compris celle de la masse noire.

15/ Que deviennent les BECs vides ?  Ils ne sont pas vides mais remplis de photons. En cohérence avec ce modèle, les photons disparaissent rapidement après avoir informé (équilibré) tout l'univers-coquille. Comme ce volume en coque est très petit, les BECs finissent par effectivement être vides. A ce moment, comme les perturbations des particules ont disparu, les BECs deviennent indépendant car plus aucune force ne les lie. Il s'évapore donc pour laisser place à l'état d'univers pré-quantique, fait d'oscillateurs stochastiques indépendants (non connexe). Le continuum masse-espace-temps disparaît. Ainsi rendu aux seules lois statistiques, et sans écoulement de temps, cet état d'univers préquantique voit une condensation fortuite d'un certain nombre d'oscillateurs du « rien ».  Cette condensation-synchronisation-refroidissement (CSR) forme un BEC instable. Des constantes qui apparaissent, représentent les moyennes stochastiques du lot condensé. Le principe de dualité est robuste car il concerne l'univers lui-même.

16/ Le « rien » est-il déterministe ?  Oui en quelque sorte. La loi de probabilité, liée aux grands nombres, dans le cadre d'un univers préquantique sans écoulement du temps, rend inexorable la formation d'un BEC.  Ce BEC génère toujours des constantes (statistiquement jamais les mêmes d'un univers quantique à l'autre)  mais il peut être de durée très variable. La grandeur du lot est une variable aléatoire et ainsi le ξ créé n'est jamais le même.    
      
17/ L'égalité (2) a-t-elle une troisième voie mesurable ?  Oui et le livre montre comment le pion π0 est la résonance fondamentale de l'univers. Cette relation toute simple le montre :

Dans laquelle la durée de de vie du pion π0 est le reflet de l'âge de l'univers. Attention l'égalité (2) donne la demi période de l'univers et non son âge.

18/ où sont les preuves de tout cela ? Outre la cohérence du modèle (logique et numérique), on a vu que chaque étape correspondait parfaitement aux observations. Par exemple les dernières observations cosmologiques indiquent clairement que les collisions (amas, galaxies) sont toujours créatrices de matière noire :

a) observatoire de Paris : http://www.obspm.fr/actual/nouvelle/jun06/tdg.fr.shtml

b) SPACE.Com http://www.space.com/15423-early-galaxies-star-formation.html

c) Physical Review http://prd.aps.org/abstract/PRD/v26/i10/p2681_1

Elles disent également que la fréquence des collisions et le taux de matière noire augmente avec la distance (donc la précocité). Cela est bien cohérent avec le fait que notre horizon cosmologique est limité aux couches en retard qui sont donc en phase d'accélération. Ce modèle est construit en prenant en compte toutes les observations sans en éclipser aucune. La rigueur mathématique (avérée) du modèle standard surfe sur une mer dépourvue de prémisses fondatrices. Il est donc logique qu'elle ne mène qu'à des énigmes observationnelles. Forte est la tentation d'en « oublier » quelques unes comme le trou de l'Eridan qui est volontairement éclipsé dans les débats.

Tout récemment on découvre la galaxie spirale  BX442  qui dément le scénario standard qui attend que les grandes galaxies soient faites de fusions de petites galaxies primordiales. Le modèle OSCAR attend au contraire de grandes galaxies très précoces dont la majorité entre en collision  en laissant beaucoup de matière noire et des débris sous forme de galaxies naines. Les galaxies précoces (comme BX442),  non déformées, sont celles (plus rares) dont l'angle d'éjection (proche de radial)  leur a permis d'échapper au régime majoritaire de collisions.
La majorité de la matière noire précoce se trouve dans des galaxies noires, hôtes des BECs qui peuplent l'espace (noir) inter-galactique que l'on observe. Comme le montre le modèle, la force de cohésion de ces BECs noirs est plus faible que celles des BECs formant halo autour des galaxies visibles (minoritaires). Ainsi l'emboitement des BECs noirs est plus lâche et peut remplir ainsi tout l'espace intergalactique. Il n'est qu'à regarder la voute céleste pour constater que cet espace est majoritaire.

19/ Quelle est la distribution de matière  dans l'univers ? Selon le modèle OSCAR, la distribution de matière dans l'univers dépend directement du rayon. La matière visible représente 5% du total et donc la matière noire représente 95%. La matière noire est l'effet d'une dégénéressence (annihilation analogique) des baryons originels lors des collisions. La haute fréquence des collisions primordiales induit deux conséquences :
a) grands angles relatifs des collisions
b) résultante expansion (radiale) faible et donc effet retard
c)  transformation intense de  matière visible en matière noire
d) température d'annihilation (partielle) mesurable.
 
20/ Pourquoi reste t-il  1/5eme de matière noire pour les couches avancées, pourtant réputées sans collision ?  On a vu que les amas avaient une taille suffisante pour que lorsque deux galaxies opposées se croisent, elles produisent de la matière noire. Cette production (comme celle des galaxies) est indépendante du rayon de l'univers et reste sensiblement une constante.               

21/ La taille réelle de l'Univers (6 fois le rayon de Hubble) est-elle  plus petite que les BECs-fils emboités ?  Si on compte les volumes cumulés des  ξ2  BECs-fils, on s'aperçoit qu'il est 150 000 fois plus vaste que ce volume. Mais en fait le taux d'emboitement est plus faible pour la masse noire (intergalactique) que pour une galaxie. La raison est que la masse noire interagit moins avec le réseau du BEC que la masse visible. Parmi les galaxies, celles qui ont un taux élevé de matière noire en prériphérie, sont de fait plus étendues. Cela ne se voit pas (par définition) mais le halo est d'autant plus grand. Selon plusieurs sources dont  celle-ci,  certains halos indirectement mesurés dépassent les 400 000 années lumières. D'autres sources parlent d'un million d'années-lumière. Si on considère qu'il ne reste que 10% des galaxies visibles primordiales, le calcul montre que les 1012 BECs restants occupent tout le volume de l'univers avec un taux d'emboitement positif.   On notera que le rapprochement entre halo galactique et Condensat de Bose Einstein fait son chemin (voir ce lien ARXIV de 2012 alors que le modèle OSCAR parle de cela depuis des années !!


Modèle OSCAR = MOND + Standard

ou Matière Noire + effet BEC


OSCAR Model = MOND + Standard

La théorie MOND ajoute une constante très faible, de la dimension d'une accélération,  à la relation de Newton. On peut la résumer par la relation suivante qui ajoute un (faible) terme constant d'accélération :


Cette constante, de l'ordre de 10-10 m/s², devient prédominante pour de grandes distances (rayon galactique) et passe inaperçue à notre échelle courante. La théorie MOND s'appuie également sur l'observation concernant l'anomalie de Pioneer 10 qui se traduit par un gamma de cet ordre.

La théorie MOND n'a pas plus de prémisses fondatrices que le modèle standard. Un  débat  est engagé entre physiciens dans le cadre des galaxies naines gravitant autour de la galaxie d'Andromède à une distance où la gravitation est trop faible pour l'expliquer. La matière noire étant de faible densité dans la galaxie visible. Ainsi un gamma faible et constant expliquerait bien ce comportement. Le débat présente MOND comme une alternative à la matière noire. En fait la réponse n'est pas de type booléen "ou" mais de type "et".

Le modèle OSCAR introduit également un gamma constant de cet ordre, non pas opportunément mais contraint par son modèle de BECs cosmologiques formant halo. On note que l'idée a été reprise par Ben KAIN dans ARXIV en 2010 et par des dizaines d'autres sources qui approchent cette idée depuis des années mais d'une manière parcellaire (hors du cadre d'un modèle complet d'univers à partir de prémisses fondatrices).  Ainsi, la matière noire (totalement expliquée dans le modèle OSCAR) est maintenue dans le halo par ce gamma pour créer une plus grande densité aux limites du halo.  C'est d'ailleurs ce qui explique la précocité de formation des étoiles, chacune dans son « BEC-matrice ». Ainsi, la matière noire se tient surtout dans les limites externes du halo et très peu dans la petite partie visible de la galaxie.

Donc, ce n'est ni MOND ni STANDARD mais OSCAR qui explique cela avec toute la précision requise. Voir le site de Françoise Combes de l'Observatoire de Paris, qui postule que la Voie Lactée et Andromède soient entrées en collision dans le passé. Elle suggère que le mode de collision soit de type oscillant (rebonds successifs). Cette idée est intéressante car elle rejoint l'idée défendue ici, à savoir que le régime de collisions (dans le passé), n'est pas une exception mais une règle très robuste. Le modèle OSCAR est cohérent avec l'idée que ces galaxies naines sont en fait des galaxies noires (issues des collisions) ayant conservé une partie visible encore plus faible que celle des galaxies classiques. Ainsi leurs halos sont très étendus (2 millions d'années-lumière) et croisent le halo central d'Andromède. Ces galaxies naines sont :

1/ la matérialisation contemporaine des produits de collisions passées et donc de l'annihilation induite (voir statut des fermions non locaux)

2/ un état intermédiaire entre les galaxies dites "visibles" (en fait 15% de la masse totale)  et les galaxies noires spatialement très étendues.

Les galaxies dîtes "naines" sont en fait de taille normale mais sont très majoritairement invisibles et donc assez spatialement étendues. (1 à 2 millions d'années-lumière).

Estimation des grandes familles de galaxies et de leur halo respectif

types galaxies rayon halo
106 années-lumière
% du total nombre typique
de galaxies
volume
(années-lumières)3
gamma
BEC
rayon visible
classique 0,2 5 5.1010 1027 100% 0,05
naine 2 15 1011 2.1030 10% 0,01
noire 9 80 8.1011 3.1033 2% -

Le volume cumulé des halos de galaxies noires est logiquement plus grand (enchevêtrement) que celui de l'univers (2.1033) pour R(t) = 5.7 fois RH.  On voit que le gamma centripète typique du champ scalaire du réseau de boson-tachyons formant BEC (cosmologique), est environ 50 fois plus faible pour la masse noire. Cela est cohérent avec les prémisses fondatrices du modèle qui considèrent la matière noire comme des baryons dégénérés (voir statut des fermions non locaux) ayant un faible rapport harmonique avec le champ subquantique. Entre autres, les émissions spontanées (changement de niveau orbital) ne se manifestent plus (raie de 21 cm). Il faut noter que les intervalles (galaxies noires) entre les filaments de galaxies (visibles) de la voûte céleste, ont effectivement un rapport d'environ (106)1/3 = 100.       

La galaxie d'Andromède, située à 2,5 millions d'années-lumière, est donc liée à la Voie Lactée par l'emboitement des halos des galaxies naines orbitales. Ainsi l'idée de Françoise Combes est renforcée par le fait que l'interaction des halos, augmente en phériphérie des halos. Cela s'explique par ce qui est décrit plus haut, à savoir que la densité de matière noire augmente en périphérie des halos enchevêtrés ou emboités. Selon ce schéma, si on pouvait voir l'emboitement des halos on verrait que l'ensemble forme un dipôle oscillant. Ainsi la période basée sur l'interaction gravitationnelle, serait raccourcie par l'interaction réciproque des  BECs formant halos enchevêtrés et renforcerait ainsi l'hypothèse de Françoise Combes.  





La naissance des galaxies


Un peu d'histoire  :

Conclusion : les modèles antérieurs à 2011 ne se basent pas sur des prémisses fondatrices complètes. Ils ne tiennent pas longtemps car les « petites idées » fragmentaires n'ont aucune chance d'expliquer l'objet univers dans son ensemble. Les prédicats des prémisses fondatrices du modèle OSCAR, sont fondés sur 33 observables parmi les plus fondamentaux. Ils résolvent les plus grandes énigmes en une seule et unique hypothèse.

Cette hypothèse [1] est juste l'idée que la création originelle de matière (électron-positrons) vient d'une fusion aléatoire des points zéro d'un échantillon d'oscillateurs du « rien ». En fait, on démontre [2] que pour justifier une origine sans constante que l'hypothèse [1] n'a pas d'autres alternative que la voie métaphysique qui est ici rejetée.

Cette fusion d'oscillateurs-bosons suit la loi de synchronisation de Huygens. Cela revient à un brusque refroidissement (enthalpie) qui engendre naturellement un premier condensat de Bose Einstein. Ce BEC, forcément instable se divise en N BEC-fils.

A cette mitose est associée une séparation causale des oscillateurs formant un front d'onde sphérique avec une distribution homogène [3] {+, , +, } dont les éléments voisins ne peuvent s'annihiler et se comportent donc localement comme des bosons.

Par définition, la mitose suit la loi de Fibonacci qui amène au pentagone de Sierpiński déterminé avec le nombre d'or. La figure fractale est contrainte de créer une expansion qui se décrit comme un tenseur des vitesses. Les collisions précoces sont contraintes par le modèle.

On a d'un coup la réponse aux énigmes suivantes :

1/ La structure fractale de l'univers en étoile-galaxie-amas est expliquée par le fait que les BEC-fils sont des moules d'accrétion rapide.

2/ la séparation causale généralisée est la source du champ gravitationnel. Le modèle le démontre avec précision.

3/ l'intervalle élémentaire quantiques suit, par définition, le nombre de mitose.

4/ la matière noire découle directement des collisions dont la fréquence est fonction de la précocité.

5/ l'accélération apparente de l'expansion qui dépend directement de la distribution fractale.

Il m'arrive d'expliquer longuement que la vraie rigueur consiste en un feed back complet et permanent entre toutes les observables et surtout les « non locales » et je suis parfois désolé d'entendre en retour :

« mais comment puis-je le vérifier dans mon laboratoire ? » .....

[1],  [2], [3]





Signification physique de la longueur de Planck


physical meaning of the Planck length



Condensation du proton sur la première couche d'électron-positrons  tout juste formés

Il y a compétition entre l'écartement des intervalles (mitose + trous d'annihilation) et la condensation du proton. Pour cette première couche du BEC primordial, on a en 2D :

trous d'annihilation (α12) x taux d'écartement par mitose (ξ2)

Le proton constitué en couches concentriques (onde sphérique) a la curieuse particularité de présenter le même nombre d'éléments en 3D, 2D ou 1D. Ainsi le ratio 1D entre le rayon de Compton pour un seul électron et un des 4 groupes de 460 éléments (rayon du proton) est strictement le même que celui qui est collecté pour condensation, sur la sphère (2D) de la première couche du BEC-0.


Avec τp = 458,81 dont l'arrondi en terme de paire entière (460), donne précisément le ratio entre la longueur de Compton pour un électron et celle du proton (relation 9). Les relations (7 et 8) montrent le ratio entre la longueur de Planck et la longueur élémentaire et le rayon du proton.

Ainsi la définition physique de la longueur de Planck est la suivante : c'est l'intervalle fossile projeté sur la sphère de la première couche du BEC-0 avant les phases {mitose + annihilation + condensation en proton}. La (7) montre cependant que c'est au facteur τ près, soit 21,42.

En revanche, la taille transversale et l'intervalle fossile du boson subquantique sont strictement égaux et sont ξ fois plus grand que la longueur de Planck (1D). C'est la raison pour laquelle le taux de mitose (fonction 2D) est de ξ2 (nombre de BEC-fils ou nombre d'étoiles primordiales). On rappelle que ξ = 1,5.1011





Tableau récapitulatif  des états avant les 6 étapes de mitose et annihilation
et après.
On rappelle que ξ = 1,5.1011 et qu'il représente la seule signature de cet univers
dans son état quantique. Il faut noter que sans mitose et sans annihilation en étapes fractales,
le proton comporterait 
 ξ4 paires électron-positrons. Cela explique très bien l'énigme de la rupture
de continuité entre les masses {galaxie, étoiles} et le proton. Par rapport à la masse de ce 
 proton imaginaire (1017 kg), la continuité entre les structures : galaxie ~ 10
41 kg ; étoile ~ 1030
kg,
serait à peu près assurée. 

  Cet article est une grande avancée du modèle OSCAR dans la mesure où il établit une signification physique à la fois à la longueur de Planck historique et également à celle, ξ fois plus élevée, correspondant à la taille de l'état corpusculaire de l'électron ou de la taille transversale du boson subquantique. Sans l'annihilation fractale et la mitose, le proton serait un véritable trou noir.
 




 
L'univers résumé en cinq étapes
the universe resume in five steps

Ci-dessus 
1/ Le premier BEC est instable car l'intervalle élémentaire est trop faible
pour une densité d'équilibre selon la loi connue qui régit un BEC.

2/ Il se divise (mitose)  en autant de BECs-fils nécessaires pour que l'intervalle
élémentaire devienne isotrope (radial => tangentiel).
Dans le même temps, survient une séparation causale des éléments de la première couche car
il y a superposition tangentielle des sites. Les charges se masquent et donc s 'annulent. Donc  le lien
 causal individuel  disparait
 au profit d'un gradient commun de charge (gravitation).
Les masses s'additionnent et l'univers forme un immense oscillateur.  Le ratio ( ξ4) est justement le ratio
(mesuré) entre un électron et un positron. La gravitation est donc le gradient du lien causal d'origine qui
garantit une somme nulle globale d'énergie (voir synchronisation-refroidissement-enthalpie).


Ci-dessous
3/  Les BECs enchevêtrés sont en expansion. Selon le modèle et les observations, les
nombreuses collisions précoces transforment la matière visible en matière noire (DM).
Les baryons dégénérés ont un faible taux d'interaction avec le niveau subquantique
et les émissions spontanées cessent (cause de la DM, raie de 21 cm). L'expansion n'étire pas l'espace
mais fait baisser le taux d'enchevêtrement. Cela conserve l'intervalle élémentaire qui règle la célérité c
et la relativité générale.



4/Seulement 5% des galaxies ne sont pas noires et présentent un taux d'enchevêtrement
plus fort qui  forme un halo qui retient (faiblement) la DM (observé).

5/ La relation d'Eddington (de même poids que la longueur de Planck), indique précisément
le rayon  maximum que peut prendre l'univers avant que les BECs perdent leurs interactions réciproques. 
Il forme alors une couche unique ultime,  formant coque.   







Le flou du point zéro stochastique
the blur of zero stochastic

Le modèle OSCAR part de prémisses fondatrices qui s'articulent sur la notion robuste de dualité. Ainsi l'univers (qui contient tout), traduit également sa dualité par deux états qui oscillent entre eux: l'état quantique comprenant des constantes et l'état stochastique. Le second état est nommé également pré-quantique. On a montré que l'unicité statique était à rejetée au profit de la fluctuation duale. Ainsi l'état stochastique est contraint d'être sous la forme d'oscillateurs duaux 1D stochastiques de somme strictement nulle. Cet oscillateur est de genre boson de masse nulle. Il comporte deux composantes de signes contraires, les tachyons. L'oscillation stochastique du « rien » comporte deux types de zéro : a) le zéro issu de la sommation algébrique des deux tachyons ; b) le « point zéro » qui représente l'axe dual. Le principe de démarcation est appliqué et donc toutes solutions dont le résultat n'est pas strictement nul est rejeté. Cependant le « point zéro » devrait s'appeler le « zéro flou » car il ne saurait être un point. La notion de « point » en physique est impropre car elle appelle des paramètres physiques infinis. Le seul infini acceptable est celui du champ des probabilités.


1. Rappel des prémisses fondatrices

Les seules prémisses valables pour l'univers s'appuient sur 5 principes :

  • le principe de dualité,

  • le principe de démarcation

  • le principe d'action nulle,

  • le principe d'incommensurabilité,

  • le principe du rasoir d'Occam.

2. L'oscillateur duel stochastique

On a vu [9] que dans le référentiel du boson duel oscillant, la masse était nulle. En revanche, dans le référentiel des tachyons (l'un annulant l'autre) on avait une variation de masse. En tout point de l'amplitude stochastique, la somme est toujours strictement nulle. La variation de masse est régit par une fonction linéaire qui suit l'amplitude spatiale 1D. Elle est maximale au point de rebroussement. Elle serait nulle si le « point zéro » était un point. Nous défendons ici l'idée que le point zéro est flou et qu'il a donc une taille non nulle. Elle est donc variable à chaque cycle pour respecter l'idée maîtresse qu'il n'existe aucune constante pré-établie. On a vu que la seule loi pré-établie admissible est celle de la conservation de l'action nulle.

3. Le flou stochastique du point zéro

La notion de flou s'applique non pas pour essayer de justifier une quelconque violation de la loi de symétrie. Le flou se manifeste dans la symétrie duale et il ne déroge donc pas à la règle générale. Autant on peut admettre une sommation strictement égale à zéro, autant on doit rejeter l'idée d'introduire la notion mathématique abstraite de zéro parfait absolu. La raison en est qu'un tel zéro induit une célérité infinie qui ne peut être compatible avec la conservation du lien causal réciproque qui est le garant de l'action nulle dans le référentiel boson. Donc le zéro n'est ni absolu ni asymétrique.
Une façon de raisonner sur les limites floues du « point zéro » est de considérer que les deux tachyons soient en superposition lors de leur croisement dans l'axe du boson. La fonction [9] montre que la variation du temps est en avance (1/r²) sur l'amplitude [L]. Cela veut dire que le croisement effectif se fait sans écoulement du temps. Ainsi, la superposition exacte n'est pas possible car sans Δt, les tachyons (fantomatiques) sont à la fois devant et derrière cet axe absolu. Cet écart spatial correspond au rayon corpusculaire du tachyon. C'est une sorte d'application stochastique de l'exclusion de Pauli mais pour d'autres raisons.

4. Par quoi l'infini se traduit-il ?

Le non écoulement du temps dans cette zone flou, ouvre le champ statistique des comportements physiques. Si les paramètres physiques ne peuvent atteindre l'infini, les possibilités de valeurs initiales du cycle à suivre, deviennent infinies. C'est la vraie définition de l'oscillateur stochastique. Son comportement purement aléatoire, vient justement du fait que le temps est presque figé dans le flou du zéro. La simple notion d'avance suffit à expliquer cela. Alors on pourrait dire que cela est un artefact pour expliquer l'aspect loterie du zéro. Il y a au moins deux raisons pour monter que ce n'est pas le cas.

Tout d'abord la fonction [9] est la seule qui permettent d'éviter les infinis de genre physique. Ensuite, on montre que cette fonction reste la clé pour expliquer (qui est mieux qu'une description) le fonctionnement des oscillateurs dans les BECs de notre univers mesurable. Enfin cette fonction simple est en accord avec les travaux de la théorie des distributions de Schwartz sur la dualité du zéro de Dirac [9].

Il existe deux types de zéro dans l'oscillateur dual stochastique. Celui qui est donné par la somme algébrique duale en tout point de l'amplitude ; celui qui transforme les infinis physiques en infini de nature probabiliste. La définition du zéro fluctuant « pas tout à fait à zéro » est totalement injustifiée. Il est à ranger au placard des énormités telle que :
  • point zéro corpusculaire (avec artefact mathématique pour supprimer les infinis)

  • la violation de symétrie matière-antimatière « pas tout à fait symétrique.. »

  • le principe cosmologique qui ignore toutes les finesses de la non localité.

Le boson est toujours la somme de deux fermions. Il manque une formulation lexicale pour nommer l'ensemble de l'univers composé de ses deux états {pré-quantique + quantique}. Nous dirons que le boson-univers est globalement d'énergie nulle.


La formation des galaxies
the formation of galaxies

Le modèle standard bute sur les causes de la formation des galaxies. Avant d'avoir constaté la haute fréquence des collisions précoces, on a commencé par inventer le modèle hiéararchique. Pourquoi ? Tout simplement parce que le temps de formation d'une galaxie (de taille normale) avec l'action de la seule gravitation était supérieur au  milliard d'années. Or on observe des galaxies qui ont à peine 300 millions d'années. Alors on a décidé qu'elle ne pouvaient être que petites. Las, les moyens d'observations, toujours plus performants, indiquent qu'il existe également des grandes galaxies précoces. Alors on a inventé la fusion par collision. Les collisions devant aider à accélérer l'accrétion. Mais les observations sont tenaces, cela ne tient pas. On vient d'inventer les courants froids (magiques). Ce nouveau paradigme n'explique évidemment pas d'où viennent ces courants froids. Le modèle standard n'a toujours pas de véritables prémissses fondatrices.  On constate l'organisation de structures en filament et on l'utilise, sans  la justifier, à grand renfort de modèle informatique. Toujours ce manque crucial de prémisses fondatrices.  L'informatique applique bêtement les données et il suffit d'ajuster à la main les paramètres pour que cela marche.  La réfutabilité devient accrobatique.

Les points essentiels des observations (qui collent tous avec le modèle OSCAR),  sont les suivants :

01/ la fréquence des collisions précoces est énorme. (c'est une contrainte de la mitose fractale), 

02/ les galaxies primordiales sont grandes et formées rapidement,

03/ elles se forment  en 300 millions d'années,

04/ les collisions produisent de la matière noire, en abondance,

05/ les galaxies naines ont beaucoup de matière noire, 

06/ leur halo peut être 5 fois plus étendu que les galaxies "normales",

07/ l'intensité des sursauts gamma augmente avec la distance,

08/ Les galaxies éjectent de la matière en leur centre, 

09/ une recrudescence des formations de galaxie/étoiles vers 1 milliard d'années,

10/ la température du centre des ammas quia un lien avec leur taille.

Se sont les BECs (formant halo) qui régentent l'ensemble de l'univers. Ces BECs sont fait d'un réseau de tachyons qui régente la masse baryonique. La masse noire (baryons dégénérés) possède donc un faible taux d'intercation avec les BECs, ce qui explique leur grande étendue (enchevêtrement moins dense). 

Voici un résumé de l'évolution des galaxies qui est la stricte application des prémisses du modèle OSCAR.      




Ce scénario est  conforme à ce que l'on observe. Les températures mesurées dans les amas sont également liées à l'angle des collisions (fonction de  la taille de l'amas).  Les moyens  futurs d'observation devraient confirmer que les étoiles primordiales sont grandes, précoces  et donc de courte durée de vie. Le scénario est en accord avec l'observation qui constate une recrudescence de formation d'étoiles de seconde génération,  autour du milliard d'années.  Il suffit de faire : 300 (1ere génération)  + 300 (durée de vie)  + 300 (seconde génération)  = 900 milliards d'années. C'est bien ce que l'on observe.  L'éclatement par les collisions de galaxies peut retarder  la seconde génération de quelques centaines de milliards d'années.  Le scénario des courants froids porte en lui, les mêmes frasques que les précédents ; une vue fragmentaire qui n'explique pas les 10 points liés à ce problème. 

A suivre...




L'énigme des filaments de galaxies
the enigma of filaments of galaxies

A une certaines échelle,  l'univers est structuré en filaments. Ce n'est ni l'action d'on ne sait quel courant froid, ni du au hasard. Le modèle OSCAR est basé sur l'enchevêtrement de condensats de Bose Einstein (BEC). Ces derniers forment halo autour des galaxies (en fait leur partie visible).  Mais le taux d'enchevêtrement est  contraint par le taux  d'interaction {matière-BEC}.  Ce taux est maximum quand la matière est dense et visible. Il est minimum quand la matière est ténue et noire. On rappelle que cela découle des prémisses fondatrices du modèle. Le réseau de tachyons formant BEC est perturbé par la présence baryonique. Aux limites, des BECs vides seraient libres entre eux. Cependant, ce cas limite ne peut exister car la mitose des BECs s'est faite dans les nuages d'hydrogène primitif.    

 Le tableau suivant donne les taux d'enchevêtrement de BECs en fonction du type de matière baryonique et de sa densité.

Ainsi on peut assimiler ces taux d'interaction entre BECs à des modules d'élasticité. On peut comprendre que les galaxies serrées au départ,  forment des filaments qui regroupent les forts modules d'élasticité entre eux. C'est comme un filet élastique dont une majorité de mailles auraient été dégénérées. Les mailles de fort module résistent à l'expansion au détriment des autres. Elles forment des lignes de fractures.  Les galaxies (majoritaires) qui ont succombé aux collisions précoces, sont devenues des lambeaux de galaxies (noire + visible) ou carrément des galaxies noires. Les galaxies naines satellites sont bien observées autour des galaxies visibles. L'univers est rangé selon le module d'élasticité des BECs. Il suffit de regarder à l'oeil nu pour voir les grands espaces noirs entre les galaxies. L'expansion fait glisser radialement les halos noirs entre eux. Les halos des galaxies visibles ne subissent pas l'expansion.  Le modèle OSCAR montre (c'est observé avec Pioneer 10)  que la vitesse de glissement augmente linéairement le module d'élasticité. Ainsi les BECs (noirs) viennent s'ajouter à l'action de la gravitation.      

 

Les signes trahissant le taux d'interaction (matière-tachyons)  à l'échelle quantique, sont principalement : a) l'anomalie du moment magnétique ; b) les particules virtuelles. De plus on a mesuré la décélération de la sonde Pioneer 10 qui trahit également l'interaction  BEC-matière et donc BEC-BEC. Il faut se rappeler que le BEC est à la fois à l'échelle quantique et cosmologique. Il est la longueur de Compton d'un tachyon. Il régit la longueur de Compton de l'électron et du proton (ou neutron).  

   

Le statut du fermion relatif est confirmé
par la température des amas
Fermion relative status confirmed by cluster temperature

On observe depuis plusieurs décennies, que l'univers est organisé en filaments galactiques. Il forme une « mousse » incluant des espaces noirs qui apparaissent vides.  Aux nœuds de ces filaments se forment des superamas de galaxies qui sont séparés par un intervalle moyen de l'ordre de:  Im = 350 millions d'années-lumière. Le modèle OSCAR montre que les filaments matérialisent les réseaux à fort taux d'interaction {BEC-BEC} [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14]. Ces forts taux sont ceux de la matière visible.


credit Wikipedia

2. Le statut des fermion-bosons relatifs

Le modèle OSCAR part d'une expérience de pensée qui change radicalement le statut des fermions lorsqu'ils sont créés à grande échelle. Le modèle est complètement cohérent avec un Big Bang matérialisé par l'explosion du premier BEC issu de la condensation des boson-tachyon-oscillateurs. L'extension brutale et synchrone de la première couche sphérique de tachyons (+/-), marque le début de la mitose fractale. Mais cette première couche est saturée car les intervalles se recouvrent. A l'extension des oscillateurs, cela contraint une séparation causale généralisée. Ainsi la masse des deux tachyons en opposition dans chaque paire, continue à augmenter jusqu'à ce qu'elle devienne la masse de l'électron ou du positron. Pour raison de conservation de quantité de mouvement, la célérité chute à c, qui est la vitesse d'expansion, qui se cumule vectoriellement, à chacune des phases (homothéties fractales) de la mitose.


Le schéma montre que les règles de l'annihilation sont différentes de celles du laboratoire (localité). Les paires voisines de signes opposées, ne s'annihilent pratiquement pas. Chaque tachyon porte un gradient d'énergie d'annihilation qui dépend du nombre présent sur la demi-circonférence. Les électron-positrons voisins se comportent donc comme des quasi-bosons. Ils diffèrent totalement de ceux qui sont créés localement. Ainsi le modèle est cohérent avec des proton-neutrons constitués de ces bosons relatifs. De nombreuse prédictions sont données et sont toutes vérifiées par la mesure. Ainsi les particules élémentaires formant les baryons stables, sont des paires d'électron-positron. La paire proton-antiproton créée localement, est un croisement de paires d'électron-positrons. La symétrie locale ne représente en rien celle de l'univers. L'énergie élémentaire lors de la séparation causale est strictement celle de la paire électron-positron. L'univers primordial a fixé la parité au niveau des paires électron-positrons et non pas au niveau des protons. Ainsi l'ensemble {neutron + proton + électron libre} vaut 3684 en unité {électron nu} ou 2 fois 1838 en unité {électron habillé}, mesuré. Il est donc naïf de chercher où sont les anti-protons car il n'y en a pas. L'antimatière n'est pas une notion binaire (0 ou 1) mais une continuité analogique. Le proton est toujours positif (positron) car la polarisation avec le « vide » (subquantique) est fixée aléatoirement dans ce sens, tout simplement. La création locale oblige une symétrie (locale) mais ne représente en rien, la règle générale.

Il faut rappeler ici que l'atome de soufre émet des positrons de création locale. Les électrons, formant la paire, restent confinés dans l'atome). C'est la raison pour laquelle le positron s'annihile avec le premier électron rencontré. Le modèle montre également que sa durée de vie (ortho-positronium), ne suit pas les règles attendues car ce n'est « pas le bon électron ». Le « bon » électron est celui qui est confiné dans l'atome de soufre. Tout se passe comme si l'expérimentation locale voulait induire le chercheur dans l'erreur.

3. Angle d'annihilation entre deux étoiles d'une même galaxie

Le modèle est en accord avec l'estimation standard du nombre de BECs (ou d'étoiles) est de : ξ² = 1022. Donc le nombre de BECs sur une demi-circonférence de la première couche du premier BEC est donc de: ξ= 1011. Ainsi le taux d'annihilation des électron-positrons contenus dans une étoile typique est donc de l'inverse soit 10-11. Ce taux est négligeable.

4. Angle d'annihilation dans une galaxie

Le modèle est en accord avec l'estimation standard du nombre de galaxies, soit : ξ = 1011. Donc le taux (négligeable) d'annihilation potentiel est égale à sa racine carrée soit  10-5.

 
5
. Ratio entre intervalle et angle originel du BEC primordial

Les cosmologistes ont l'habitude d'exprimer une distance entre deux objets, en fonction de l'angle vu par l'observateur. Ici, nous devons déterminer l'angle relatif entre deux points de l'intervalle moyen Im = 350 M.l.y. On comprend que si l'angle est π, le taux d'annihilation serait unitaire. Pour tout angle quelconque, φ, on aura un courbe linéaire du taux d'annihilation (de 0 à 1). Cela sera comparé avec la température élémentaire de l'univers qui vient de la grande annihilation des électron-positrons issus de la déflation des tachyons séparés, soit: Te = 5,96.109 K.

6. Rappel des contraintes du modèle

Pour aller plus loin, il faut rappeler l'aspect géométrique du modèle Oscar. Il est contraint par une géométrie euclidienne à symétrie sphérique. L'univers est dual et possède deux états (stochastique sans espace-temps-masse et n'a pas de centre) et l'état quantique que nous connaissons. L'état quantique est né du BEC-0 instable de 150 000 années-lumière de rayon et non pas d'une naïve « tête d'épingle ». Il n'est pas né d'une inflation mais d'une déflation de vitesse des oscillateurs nouvellement synchronisés. Il a donc un centre. Ce centre est observé depuis plus de dix ans, dans la direction de l'Eridan. Ce « point froid » a une taille d'un milliard années-lumière. Il a donc grossi d'un facteur 3000. Le mode fractal du modèle explique pourquoi les collisions précoces produisent de la matière noire. Les deux conditions sont :

- le processus fractal produit un champ de vecteurs de vitesse qui favorise les collisions précoces

- les corps en collisions ont un angle non négligeable qui produit des annihilations partielles qui dégénèrent les baryons. La raie de 21 cm disparaît et ils ne sont plus visibles.

Les couches en retard sont contraintes d'accélérer pour tendre vers une expansion moyenne. Ainsi le modèle montre que l'isotropie observationnelle est quasi conservée à des distances éloignées du centre. Le modèle dit que la couche où réside la Voie Lactée (donc nous) possède une expansion faible d'environ v = 0,5 c. Les couches les plus en retard sont proches du BEC-0 fossile. Cette zone est donc contrainte d'être en forte accélération. C'est bien ce qui est observé à 7 milliards d'année-lumière. Ainsi pour un âge de 13,8 milliards d'années, le centre de l'univers est à : R(t) ~ 7 milliards d'années-lumière. Le rayon total de l'univers est d'environ Rt =78 milliards d'années-lumières (45 G.l.y pour l'univers visible en accord avec le modèle standard). L'argument est basé sur le nombre de photons initiaux. Il se recoupe parfaitement avec le fait les 6 homothéties fractales qui cumulent vectoriellement 6 phases à vitesse c, soit:  vm = 6 c. On retrouve bien Rm/R(t) (v/c) = 5,8 <  6. Cela indique que les couches en avance ont commencé à ralentir. Cela est compensée par une accélération des couches en retard. La température nominale d'annihilation est celle de l'électron soit : Te = 5960.106 K.

7. Comparaison avec les températures observées

Le tableau suivant compare quelques températures observées à différentes échelles, pour des distance au centre, comparables à la nôtre avec : 

Tamas = Te Im / πR(t) = 100 millions K

On note que l'angle des superamas correspond à celui des fluctuations détectées par le satellite Planck, sur le CMB [15] soit environ . L'intervalle typique des amas est de l'ordre de 100 M.l.y. Dans tous les cas il doit exister une seconde composante liée aux croisements internes. C'est la raison pour laquelle, certains amas sont en forme de coquille car le centre est majoritairement de la matière noire (DM). La DM peut déclencher la condensation d'une galaxie visible, au centre.

8. Température d'une galaxie et du Soleil

Le modèle indique que le centre d'une galaxie émet des paires d'électron-positron. La température dépend de l'angle de reconnexion des paires initialement séparées. Cette annihilation partielle produit donc de la matière noire. Les rayons X mesurés, correspondent à une température inexpliquée de 50 à 100 millions de Kelvins. Pour coller au modèle Oscar, il faudrait que l'angle de reconnexion corresponde à celui des superamas, soit environ 6°. Or une étude récente [16] montre que le trou noir galactique de NGC 1365 tourne à une vitesse proche de celle de lumière. Son rayon est de 3.109 mètres. Deux points liés causalement (à célérité c) sur son périmètre, représentent un angle de 6°. Est-ce un hasard ?

Le soleil est également un faible émetteur de particules élémentaires, dont une partie doit s'annihiler. On doit vérifier que l'angle de reconnexion correspond à la taille de ses granules magnétiques. L'intervalle moyen des granules [17] est de l'ordre de : ls = 1000 km pour un rayon de R = 700 000 km.

Te  Is / πR = 2,8 millions K

Cela explique bien le mystère de la température de la couronne solaire, mesuré entre 1 et 5 millions K [18]. Cette référence, de mars 2011, fait état d'une relation entre la température et les jets de particules émises par le soleil. Cela va également dans le sens du statut des fermions relatifs et de leur angle d'annihilation.

9. Conclusions

    Le statut des fermions relatifs explique directement 9 énigmes fondamentales :

  • l'origine de l'expansion,

  • l'énigme de l'antimatière,

  • la masse des proton-neutrons,

  • l'origine de la gravitation, induite par la séparation causale,

  • les collisions précoces de galaxie,

  • la matière noire (baryons dégénérés) issue des collisions,

  • l'accélération de l'expansion (qui n'est qu'une vue tronquée de l'ensemble qui ralentit),

  • les températures élevées des structures cosmiques à toutes échelles,

  • l'immense « trou froid » détecté en direction de l'Eridan.

Il est vérifié par :

  • Le rayon précis du proton qui en découle,

  • La masse autonome du proton

  • le ratio entre le champ coulombien et gravitationnel pour une paire électron-positron,

  • la température élevée de la couronne solaire,

  • la température élevée du centre galactique,

  • la température élevée des amas et superamas de galaxies,

  • l'angle élémentaire de fluctuation de CMB,

  • le calcul de l'anomalie du moment magnétique de l'électron,

  • l'accélération mesurée des corps situés autour du « point froid ».

Toute la physique repose sur une rigueur expérimentale qui apparaît fouillée mais qui ne l'est pas. L'étude de l'objet univers ne peut se faire dans le cadre réductionniste et fragmentaire. Toutes les expériences de laboratoire doivent être passées au crible de la réfutation à grande échelle.

A l'heure où la technologie nous donne les moyens d'explorer l'univers lointain, il convient de nous armer de cette nouvelle rigueur. Il faut repenser systématiquement la portée non locale, des expériences locales. Il faut abandonner le principe cosmologique car c'est un faux ami. Il faut prendre conscience que le réductionnisme est une impasse pour relever le défi de comprendre l'univers dans son ensemble.

10. References


Merci au satellite Planck


Les équipes du satellite Planck viennent de rendre une partie de leur rapport. Un point est particulièrement intéressant car il confirme ce que dit le modèle Oscar depuis des années. L'univers est anisotrope !

Voici un extrait traduit d'un article paru dans Physics-World :

 "
".....les fluctuations de la température du CMB à grandes échelles angulaires ne correspondent pas à celles prédites par le modèle standard, en plus d'une asymétrie dans les températures moyennes sur des hémisphères opposés du ciel. Ces écarts ont été devinés par WMAP, mais ont été largement ignorés en raison des doutes sur leur origine..../....Une explication possible à cela est que l'univers n'est pas le même dans toutes les directions sur une plus grande échelle que nous pouvons observer..../... Joanna Dunkley de l'Université d'Oxford, dit que les anomalies à grande échelle angulaires sont «alléchantes» et pourraient pointer vers une nouvelle physique.....".

Cela ressemble fort aux contraintes de mon modèle oscar. La géométrie à symétrie sphérique dans laquelle nous sommes placés non pas au centre mais à 7 Gly du BEC primordial ! Ce centre est d'ailleurs observé depuis 2004 sous forme d'un "spot froid", de 1 Gly de diamètre. Il aura grossi d'un facteur 3000 en 13,8 Gly ! Sa vitesse moyenne d'expansion est de 0,07 c. Cette géométrie est contrainte d'être à gradient de vitesse. C'est le fractal originel (champ de résultantes radiales de vitesses) qui crée un tenseur des vitesses d'expansion. La couche qui nous porte a une expansion à 7/13,8 = 0,5 c. D'un côté on voit le CMB à +delta c= 1,5 c. Et de l'autre (derrière le spot-froid-BEC) à -delta c = -0,5 c. En accord avec le modèle standard, l'univers observable est à 45 Gly et l'écart brut est de 0,5/45 = 10%.

Cela donne :

- rayon de notre position, R(t) = 6, 5 Gly (mesure spot froid)
- limite temporelle (rayon Hubble) = 13.8 Gly (mesure + logique oscar)
- rayon observable (avec le décalage) = 45 Gly (logique)
- global (oscar connait le nombre de photons originels) = 78 Gly

On voit que chacune des 6 étapes (homothéties fractales) éjecte l'ensemble BEC+ matière, à la célérité c. La fraction la plus en avance a donc une expansion de 6c. Les arguments "photons" disent que les couches en avance ont commencé à ralentir. Cela induit naturellement l'accélération des couches en retard qui sont observables ! Donc pas de mystérieuse énergie noire car globalement l'expansion ralentit !

On a donc :

- Matière visible 4.5 %
- Matière noire 95.5 %, surtout fabriquée dans les collisions précoces (statut des fermions relatifs).

C'est la DM+BEC qui matérialise l'espace intersidéral dont le volume est largement majoritaire.

La grande naïveté est de contrer la symétrie sphérique en disant : "la symétrie sphérique réclame que nous soyons au centre". Non et non !!! Car sans être au centre, la dynamique en couches de vitesses (gradient des vitesses) apporte une quasi isotropie observationnelle. C'est certainement le "quasi" qui a été mis en valeur par le satellite Planck.

L'univers possède 4 tailles caractéristiques. En rouge, la couche à laquelle la Galaxie appartient.
Ensuite, dans l'ordre, l'horizon cosmologique caractérisé par un Δv = c ; l'univers observable et enfin, la taille

globale Rm(t) en décroissance par symétrie à l'accélération des couches en retard.

Il reste à vérifier que l'anisotropie forme bien un dipôle dans l'axe : Eridant-Grand Attracteur. Au moins trois échelles sont structurées en couches :

- le proton, 

- le BEC,

- L'Univers.

 

Regain d'intérêt pour les étoiles noires prédites par le modèle OSCAR

Une équipe composée Paolo Gondolo, un chercheur de l’Université de l’Utath et ses collègues, dont  Katherine Freese  de l’ Université du Michigan (Ann Arbor), Douglas Spolyar de l'Université de Californie (Santa Cruz) viennent de publier sur la possible formation d’étoiles noires géantes primordiales en 100 millions d'années. Selon l'ancien dogme, seules des fluctuations gravitationnelles ont pu former les étoiles. Cependant la seule action gravitationnelle implique plutôt un milliard d'années ! Mais l'observation est tenace car elle confirme la formation des premières étoiles en moins de 200 millions d'années.
Alors on utilise PAR DEFAUT la matière noire  pour "expliquer" la précocité observée. En fait on explique rien du tout car on "sort du chapeau" la condensation pré-établie de DM. Déjà que l'on "explique" PAR DEFAUT les fluctations d'un monde pré-qauntique en utilisant  les règles du monde quantique.

Ce qui est intéressant, c'est ce regain d'intérêt pour les programmes d'observation. Le modèle OSCAR montre qu'avec le gamma d'un BEC (g = 10-10 m/s²), une étoile est formée dans le temps observé (150-200 millions d'années). Ce gamma est justifié dans le modèle et observé avec la sonde Pioneer 11. Sa constance le rend 106 fois plus fort que la gravitation (en 1/r²), calculée aux limites (R = 1021 m) du BEC concerné.

Les observations montrent de mieux en mieux les points suivants, contraints par le modèle OSCAR :

1/ haute fréquence des collisions précoces,
2/ lien entre production de matière noire et collision,
3/ collision frontale =  matière noire immobilisée,
4/ matière noire au centre des amas
5/ température des amas liée à la taille (donc l'angle) des intervalles (voir les fermions relatifs devenant des bosons locaux).

C'est pourtant clair, les BECs noirs sont majoritaires (95%) et remplissent les intervalles noirs entre les étoiles. Leur gamma interne est plus faible que celui des étoiles visibles car les baryons noirs sont dénaturés. Leur interaction avec le BEC est amoindri. C'est la raison pour laquelle le taux d'enchevêtrement de BECs noirs est faible et donc ces BECs sont TRES ETENDUS.  Cela est confirmé par la  mesure de la proportion : ciel noir/ciel visible.  



  



  

Tableau des échelles de l'Univers

Un modèle doit être cohérent, explicatif  et recouper toutes les échelles mesurées de l'Univers.









Le catalogue Planck remet en cause la répartition des masses dans l'univers


Plus on regarde loin plus les amas sont massiques [1]. 

Le décalage vers le rouge ;  1,  veut dire 8 milliards d'années lumière (8 Gly).

On voit bien que la courbe moyenne des points noirs, indique une augmentation de la masse des amas, avec la distance. De plus ce relevé possède, pour le moment, peu de points à grande distance. Cette courbe est largement prédite par le modèle OSCAR, depuis des années. En effet, la mitose de type fractal, favorise les collisions précoces. Or, selon la base du modèle OSCAR, la matière noire est fabriquée en masse lors de ces collisions. En moyenne, la source  [1]  dit que les amas sont fait de 90 % de matière noire (DM). Elle dit également que la correspondance avec le CMB nécessiterait (pour le moins) une augmentation de 45 % de la masse.

Ce qui surprend le modèle standard, colle parfaitement avec le modèle OSCAR. La source [1]  indique que la majorité de la DM est produite au début de l'univers. Ainsi la moyenne est sous-estimée d'un facteur proche de 2. En effet, le modèle OSCAR est cohérent avec :

1/ la mitose fractale débouche sur des collisions précoces (observées).

2/ ces collisions fabriquent la matière noire DM (observées).

3/ le mode fractal contraint un gradient des vitesses de l'expansion en couche.

4/ l'énergie sombre (ES) est ainsi expliquée et n'est pas à décompter dans les masses.

5/ la constante identifiée de la courbe de l'expansion est la quantité de mouvement

6/ Cela est confirmé par le graphe ci-dessus.

Ainsi la répartition est la suivante :

  • Standard : ES = 74 % ; DM = 22 % ; B = 4 %

  • OSCAR : ES = 0 % ;   DM = 96 % ; B = 4 %

Avec B = baryons.

En réalité, ce qui se cache derrière cette mystérieuse énergie sombre, c'est le fait que l'horizon cosmologique ne nous permet pas de voir un décalage vers le rouge indiquant une vitesse de fuite, bien supérieure à c. Cette énergie est celle de l'expulsion fractale qui n'a rien à voir avec la masse inertielle. Dans ce cas bien précis, la notion classique de masse-énergie n'est pas du tout valide.  L'accélération observée est en fait le symétrique dynamique de la déccélération des couches en avance et à faible densité.  On note que dans les amas, Planck trouve un rapport : DM / B = 10. Ce qui amènerait la DM à 40 % dans la répartition standard. En augmentant cela d'un facteur 1,45 comme indiqué, on obtiendrait près de 60 % de DM.

Nous prédisons ici, qu'en 2014, Planck nous révélera une courbe encore plus prononcée qui devrait ressembler à cela. (voir la liste des prédictions vérifiées).



Elle confirmera que les étoiles noires sont environ 24 fois plus massiques (donc nombreuses) que les étoiles visibles. Cette moyenne est à peu près centrée dans notre environnement. Aux limites de l'univers (*), la proportion de DM est proche de zéro. En regardant le ciel, on peut voir cette proportion entre les filaments galactiques et les zones noires.

* Selon le modèle standard cette limite est à 46 Gly et selon OSCAR elle est à 76 Gly. La célérité max n'est pas de 3,4 c mais exactement de 5,7 c. (gradient des vitesses contraint par le mode fractal).






Les prédictions OSCAR

February

2010

radius proton



The relative status of non-local fermion creation (FCNL) requires a single elementary particle, the electron. The electron-positron pair comes from the dual oscillator tachyon. Status FCNL forced neighboring pairs behave like bosons and therefore can merge. Thus protons and neutrons are composed of these pairs FCNL. Compton length is related to four groups each forming elements 460.

rP = 8,42 × 10-16 m.

CNRS KASTEL


July 2010




8,42×10-16 m

March

2010

Link

Dark Matter

colliding

galaxies

The status FCNL implies a link between colliding galaxies and the Dark Matter emergence. A galaxy with a low baryon will be compensated by a high rate of dark matter. But the BEC-DM interaction is weaker and therefore, the halo is more extended.

WILEY

APS

ASTROPHYSICS

PhysOrg

2012-2013

April

2010

Early formation

of galaxies

The merging of Tachyon in a first Bose-Einstein condensate (BEC) forced his mitosis. There are so many stars that BECs. Each BEC has a gamma constant accelerating accretion. The star and the primitive galaxies form in 200 million years.

nature


2012

September

2010

Halo and BEC cosmological

A typical galaxy has a halo of 200 thousand light-years(150+50). This halo is formed of 1011 BECs entangled. The BEC-Baryon typical interaction is observed with Pioneer 11 as a gamma 10-11. A wide BEC, this gamma is 107 times stronger than gravity. This interaction results in a typical halo radius of 50 kPs.

APC


BERKELEY

January

2011

Extended halo dwarf galaxies

The proportion of baryonic dark matter of some dwarf galaxies is 1/1000. The BEC-Dwarf Galaxy interaction results in a typical halo radius of 400,000 light years.


IOP Sciences


CEA

March

2011

Black

galaxies

A large scale intergalactic medium is indicated by dark galaxies. Their halos are very extensive. The model says that a number of 1022 BECs black fills the universe. The cube root corresponds to the maximum potential radius of the universe. Was 107 × 1021 m = 1028 m > 76 Gly. Black spaces (between filaments of galaxies) we observe a radius of 175 million light years. They consist of black galaxy density very thin. The average halo is about 20 times that of a typical galaxy (4 × 106 ly). A black space (interfilament) is evidenced by approximately 300,000 galaxies black.


APS Physics


ESO

May


2001

Galaxies Clusters

A giant black galaxy at the center. It is the result of internal collisions. Halo "black" encompasses the entire cluster. It materializes the gravitational magnifiers to amplify the image of the body located beyond.


CEA


CEA

September 2011

Andromeda Central

Black Holes

Young stellar 200 million years revolve around the central black hole.

FCNL status applied to the galactic center, transforms tachyons in electron-positron become locally baryons. It is therefore normal to observe young stellar near the center. (see Strange Black Hole)


Sciences Avenir

date

type

prediction OSCAR

Links

October


2011

anisotropy

cosmological

The model indicates that the BEC-0 fossil should be observable in the center. Our position (not preferred) is offset from 7 Gly (8% as total radius = 76 Gly). So our expansion is 0.5 c. We show that the anisotropy (+/- c) is 2%.

Wikipedia

October

2011

Strange

Black Hole

galactic

The galactic center is indicated by the sphere of common zero points. It emits positron-electron pairs which becomes part of the baryonic matter. This black hole is different from what the theory expects. There is a strong lack of gamma-ray and antiproton.

NATURE


GSJournal

October


2011

Proton mass

The model forces the proton to be composed of electron-positron pair type FCNL.

The link with the radius is demonstrated

(in unit electron mass).

PDG

May


2012

link

between distance-mass

Fractal mitosis constraint the gradient expansion velocities. Late layers are denser.

CEA

May

2012

Cold Spot

Eridan

The model indicates that the BEC-0 fossil should be observable in the center. Our position (not preferred) is offset from 7 Gly (8% as total radius = 76 Gly).

Futura

Sciences

Sur les seules prémissses fondatrices du modèle, et notamment le statut FCNL (création de paires électron-positrons, suivie d'une séparation causale) le modèle contraint les éléments suivants :

rayon du proton ;  lien entre collision de galaxies et émergence de matière noire ; formation précoce des galaxies/étoiles par les BECs ; halo de galaxie réalisé par enchevêtrement de Condensats de Bose Eisntein, aptent à retenir la matière noire ; halo étendu pour les galaxies naines (en apparence); galaxies noires majoritaires ; halo englobant les amas de galaxies avec température d'annihilation partielle, fonction de la taille ; sphère centrale d'Andromède qui fait naitre des étoiles (200 millions d'années) plutôt que de les avaler comme un trou noir ; anisotropie observationnelle liée au modèle à symétrie sphérique ;  sphère centrale de galaxie matérialisant le point zéro commun et ne se comportant pas comme un trou noir car il émet de la matière plutôt que de l'accréter ; masse du proton selon le statut FCNL ; lien entre la masse des amas et la distance ; énorme trou froid de 1 milliard d'années-lumière. 

Toutes ces contraintes sont donc des prédictions. Elles ont toutes été observées. Ce qui était surprenant pour les découvreurs était attendu par le modèle. 

Size in kly

type  visible size  halo size Halo : DM/baryonic
classical galaxy  50 200 5
dwarf galaxy 10 400 20
black galaxy 0 1000 100

    

Le Kelvin est une unité arbitraire

1/ les 5 acteurs historiques

Une grande confusion règne dans la compréhension épistémologique de l'unité de température. Beaucoup pensent que l'expression en Kelvin est magique et donne des nombres transcendantaux que l'on pourraient comparer avec des constantes mathématiques. Nous allons montrer qu'il n'en est rien.


symboles

noms

valeurs

unité arbitraire

R

constante de proportionnalité des gaz parfaits

8,3144621 J/mole/K

oui car

R = NA × KB


NA

Nombre Avogadro

issu du système cgs et nécessite un facteur 103 pour le convertir en MKSA

6,02214129×1023 mole-1

oui car il est fonction de la masse atomique u déterminée par le nombre de carbone 12 contenu dans 12 grammes

KB

constante de Boltzmann

1,3806488×1023 Joules/K


KB = NA / R

oui car c'est le ratio des deux premiers et de plus l'énergie est exprimée avec des unités arbitraires issues du kg, du mètre et de la seconde

K

degré Kelvin

base déterminée par le point triple de l'eau.

273,4 K

oui car l'intervalle unitaire est le même que celui du degré centigrade déterminé par rapport à l'eau

mol

mole

quantité de matière contenant autant d'entités élémentaires qu'il y a d'atomes dans 12 g de carbone 12.

oui car le carbone 12 n'est pas une entité élémentaire à caractère universel, en physique fondamentale.


Ces unités sont cohérentes au système SI (sauf la mole qui est exprimée en gramme). Cependant la constante de Boltzmann résout le problème car l'unité ancienne de la mole s'annule dans la division. Le facteur 1000 reste comme un poids épistémologique inutile.


2/ Proposition du CNRS en 2002

En 2002, le CNRS propose d'utiliser comme unité de masse atomique, la masse du proton plutôt que celle du carbone 12. Historiquement (Dalton en 1805) ce sont les chimistes qui ont eu la main sur ces constantes. A l'époque, le carbone 12 représentait une bonne moyenne dans ce domaine.

Depuis, la définition des constantes a été rapprochée de la physique fondamentale. Ainsi le proton est considéré à juste titre comme plus fondamental que l'atome de carbone. Cependant, cette proposition intelligente à été rejetée. Nous allons montrer qu'il existe une base encore plus fondamentale. De plus, la démarche vers cette base, éclaire et simplifie la compréhension de ces relations.

3/ Proposition relative au modèle OSCAR

Le modèle OSCAR montre que l'électron est la particule universelle de l'univers [1 to 22]. Plutôt que de définir une mole dans l'unité cgs nous dirons que l'unité SI  (1 kg) contient un nombre de module me-1, d'électrons. Cette démarche est la même que celle qui porte sur le nombre d'onde. Dans le tableau suivant on remplace NA (Avogadro) par NAO (Avogadro amendé OSCAR).

symboles

noms

valeurs

rapport avec l'ancien système

u0

masse électron

9,10938215×10-31 kg

1/1822,8885589

en unité "électron" qui correspond  à un couple (proton + électron) dans le cadre de la masse réduite du carbone 12


NA0

Nombre Avogadro-Oscar

directement accessible en MKSA

1,0977692927×1030

en module, c'est l'inverse de la masse de l'électron

NA0 = nombre pour 1 kg d'électrons plutôt que pour 12 g d'atomes de carbone 12.

Te

température de l'électron

(connue)

5,929896939×109 K

inchangée


R0

Constante des gaz parfait

exprimée en SI

R0 = me-1 ( me c² / Te)

R0 = c² / Te

R0 = 1,515633725×107

ratio joule/K pour 1 kg

R0 = 1822,88×R×103

deux éléments arbitraires sont supprimés

KB

constante de Boltzmann

1,3806488×1023 Joules/K


KB = NA / R

KB = NAO / R0

relation et valeur inchangées

La masse (exprimée en unité électron)  d'un couple {(proton + électron + neutron)/2} fusionné dans le carbone 12,  est de : 1822,88855.  Elle est  à comparer au proton : 1836,152679.  

4. Discussion

Dans un système où c = 1, la constante de Boltzmann vaudrait : me c² = me et donc la température de l'électron deviendrait unitaire. La température est ainsi nettement montrée comme étant proportionnelle à l'énergie interne. L'électron est la seule particule qui soit à la fois : stable, non composite et non confinée.

De graves erreurs sont parfois commises en voulant fixer une valeur de température par rapport à des constantes mathématiques. Cela arrive car beaucoup croient que la température exprimée en Kelvin n'est plus arbitraire. On a montré qu'il y a deux raisons fortes qui font que cela n'est pas possible. L'intervalle arbitraire du l'ancien degré a été conservé. Défini comme 1/100eme de l'écart de température entre le point d'ébullition de l'eau et son point de congélation. Outre que ces données soient liées à la pression bien particulière de la terre au niveau de la mer, l'eau ne représente pas une base fondamentale en physique. Pas plus que le carbone 12 d'ailleurs. Le modèle OSCAR démontre que ce sont les paramètres de l'électron qui représentent les unités fondamentales. Elles sont exprimées avec des unités certes arbitraires (SI), mais elles permettent de construire toutes les constantes fondamentales. On pourrait ainsi considérer que la température de l'électron est égale au module de son énergie. Le changement d'unité pourrait se faire avec une constante de Boltzmann unitaire de dimension inchangée (J/K). Cependant, la courbe asymptotique vers le zéro ne permet pas d'avoir un second point pour modifier l'intervalle unitaire. Il vient que la valeur arbitraire du Kelvin apparaît comme inéluctable.


5. Bibliography





Ci-dessus un dessin d'artiste figurant les 6 étapes fractales générant chacune une éjection à célérité c. La (faible) part des vecteurs typiquement radiaux, constituent les couches d'expansion en avance. Notre position observationnelle relative (Hubble) à v = 0.5 c, proche du centre canonique, est caractérisée par une fraction majoritaire de matière noire. Le diagramme montre que la somme M visible + M noire,  reste invariante. Si on pouvait voir au-delà du rayon de Hubble, le ciel apparaitrait de plus en plus brillant.  Par rapport à l'axe radial, la relation fixe la composante radiale de vitesse finale en fonction des différents angles d'émissions. La relation qui somme la vitesse finale est approximative car elle considère que les collisions sont inélastiques.  

Expansion en couches de vitesses

Ci-dessus le rayon de Hubble (en bleu)  est distinct du rayon canonique (en rouge). Cependant comme le delta c est indentique, pour un âge partout le même, on obtient une quasi isotropie observationnelle.
  


-------------

Le néant selon le modèle Oscar


1. L'aspect lexical

La définition lexicale du néant est bien trop ancienne pour espérer recouper une réalité physique moderne. Par exemple dans Wikipédia on parle du « rien » ou de « nullité absolue » ou de zéro. Il est également défini comme étant différent du mot « vide » qui lui-même se rattache à l'espace. Nous allons montrer que ces mots, sont d'une grande pauvreté lexicale, car leur lien avec la physique du réel est fictif. Si le philosophe et le mathématicien peuvent se contenter de ces définitions éculées, le physicien a le devoir d'actualiser tout cela avec la nouvelle connaissance que nous avons de l'objet univers qui contient tout.

Cependant, la définition de l'objet univers est également à revoir.

Ainsi nous allons proposer une définition moderne du néant comme étant le terreau de la partie d'univers observable. Cette approche appelle d'emblée la notion de dualité qui s'oppose à l'unicité propre à la théologie. Respecter les règles de démarcation de Popper, c'est refuser de faire appel à une intervention divine pour créer l'univers. Nous allons montrer que rien n'échappe à la dualité, y compris la dualité elle-même. En effet, pour définir le néant il n'y a rien de mieux que le principe d'action nulle. Armé de ces deux principes forts, nous allons montrer comment l'univers est forcément dual (ou duel).

2. Dualité de l'univers

On sait depuis les expériences de monsieur Aspect (portant sur l'intrication et la non localité) que L'univers que nous observons est un tout indissociable. Comme disait BOHM en matière de recherche fondamentale, il ne faut pas chercher à fragmenter les sujets car ils sont tous une partie d'un continuum à toutes les échelles. Donc cet univers est caractérisé par des paramètres quantifiés ou discrétisés (théorie quantique). Il possède des constantes fondamentales. Cela veut dire que sa dualité à cet égard, exige l'existence d'un autre état, purement stochastique.

La question est double :

  • comment déterminer cet état stochastique qui doit respecter le principe d'action nulle (PAN) ?

  • comment déterminer la transition de cet état stochastique en l'état quantique que nous connaissons,  pourvu de constantes ?

La première réponse est apportée par la conjugaison des mêmes outils {DUALITE + PAN}. La dualité implique la notion de fluctuation stochastique. Les deux entités qui la composent, s'annulent strictement dans les fluctuations symétriques.

3. La notion d'oscillateur-dual stochastique

Le néant ne peut être statique car, par définition, il ne saurait évoluer. Il est donc dynamique. Il doit respecter rigoureusement le PAN. La seule solution est l'oscillation duale aléatoire qui s'annule strictement. On arrive donc à la conclusion que l'état stochastique de l'univers est représenté par des oscillateurs-duaux. Mais une réponse doit être trouvée pour le choix dual suivant : un seul oscillateur ou plusieurs ? Il serait vain de chercher à borner cet état d'univers et nous devons admettre une infinité d'oscillateurs-stochastiques. Mais l'espace dans tout cela ? Pour répondre à cette question nous allons faire appel au principe du rasoir d'Occam qui consiste à simplifier au maximum un concept naissant. Quel est le minimum « vital » pour un oscillateur stochastique dual ? Il lui faut :

  • une (double) amplitude spatiale 1D (l'intensité symétrique de chaque cycle est aléatoire)

  • une (double)  masse fonction de cette amplitude (une composante charge conserve le lien causal réciproque) 

  • une (double) période temporelle fonction de cette amplitude et de résultante nulle.

Le lien causal  est matérialisé par une force de rappel entre les deux entités contraires, respectant ainsi le principe d'action nulle (PAN).  A chacun des cycles aléatoires, une fonction précise du point zéro doit faire en sorte que le lien causal réciproque entre les deux entités, soit strictement symétrique pour qu'elles s'annulent réciproquement (voir & 7).


4. Le déterminisme du principe d'action nulle (PAN)

  • On peut comprendre que si les deux entités venaient à se séparer à l'infini, il y aurait alors deux masses contraires animées d'une vitesse (deux impulsions ou actions contraires) qui violeraient radicalement le PAN.

  • On peut comprendre qu'aux alentours du point zéro, les deux masses puissent tendre vers zéro entraînant une vitesse infinie.

Ces deux situations, strictement interdites, sont donc obligatoirement régies par une fonction dont le but est d'éviter les infinis. Le principe d'action nul est donc tenu de s' auto réguler. Il suffit pour cela que la masse et la charge évolue linéairement avec l'amplitude et que le temps varie au cube de cette même amplitude. C'est tout ! Cela amène la célérité à varier en 1/r² (voir & 7). On montre que cela suffit à éviter les infinis et de garder scrupuleusement le lien causal pour toute nouvelle valeur aléatoire d'amplitude.

D'où vient la masse ? Cette question devrait plutôt être posée comme suit : D'où vient le continuum masse-espace-temps ? La réponse est simple ; de l'obligation duale et donc de la nécessité absolue du PAN de se matérialiser sous forme d'oscillateurs duaux stochastiques 1D. A ce stade rien ne justifie un espace 2D ou 3D ou plus.

D'où vient la charge électrique ? Elle est une composante incontournable de l'aspect inerte de la masse pour conserver le lien causal. Elle varie linéairement avec l'inertie. Elle est le reflet dual ou causal de la masse. Il est  remarquable de noter que la définition standard du carré de la charge élémentaire est justement fonction du produit masse × rayon classique (de l'électron). C'est exactement ce que dit la fonction du chapitre 7 mais dans le cadre de l'oscillateur dual élémentaire. L'interaction de deux charges (e × e = e²) dépend de la masse et de l'amplitude spatiale.  

5. L'espace stochastique

Il existe donc sous la forme d'un ensemble disjoint (ou non connexes) d'espaces 1D stochastiques. Il est donc lui-même un ensemble stochastique sans étendue spatiale et sans flèche du temps. C'est donc un espace potentiel abstrait (un potentiel d'étendue spatiale) dans lequel pourrait évoluer une bulle d'univers quantique et borné. L'espace stochastique ainsi défini n'a pas de coordonnées spatiales et il recouvre une structure dans l'état le plus désordonné possible. Il n'y a pas de lien entre cet espace abstrait (potentiellement infini) et la structure sous-jacente. Il est donc différent de l'espace physique de notre univers observable qui lui possède une sous structure physique et très organisée. On verra que l'aspect erratique des particules virtuelles ne reflètent absolument pas la régularité de cet espace mais plutôt le champ perturbatif des interactions des particules de matière. Et ce modèle montre précisément comment ces perturbations sont relayées par le réseau d'oscillateurs et son point commun central dans le BEC. Seuls des oscillateurs-tachyons peuvent créer des masses imaginaires (asymétrie = masse imaginaire) et surtout les rendre non locale. Il n'existe aucune autre théorie qui sache répondre à la question d'Einstein, comment les ondes sont elles transmises. Beaucoup de physiciens ne se posent même pas la question puisqu'ils font malheureusement l'amalgame entre la description mathématique (sur les effets) et l'explication (sur les causes).         

6. La dualité combinatoire {stochastique + probabilité}

Entre deux oscillateurs non connexes, il n'existe quasiment aucune interaction. Pour qu'une interaction puisse se faire il faudrait que leur points zéro respectifs soient en recouvrement précis spatio-temporel. Cependant, si un point zéro quelconque est supposé infinitésimal, sa taille varie d'un cycle à l'autre. Si la somme des deux entités s'annule strictement en tous lieux de l'amplitude (y compris au point zéro) la taille de ce dernier est toujours asymptotique. L'attraction du zéro recèle une infinité d'approches et c'est justement ce qui rend l'oscillateur stochastique.

Ainsi la probabilité d'une fusion de deux points zéro est quasiment nulle mais pas strictement nulle ! Que dire pour la probabilité de fusionner un très grand nombre d'oscillateurs ? La combinatoire est tellement énorme qu'elle est quasiment inconcevable. Mais il faut se souvenir que le temps (global) ne s'écoule pas. Cela veut dire qu'aux limites, pour un temps nul, une probabilité qui tend vers zéro, finit toujours par se produire. En réalité le modèle montre que bien que la combinatoire tend vers l'infini, elle donne obligatoirement une fusion significative. Avant de voir ce que donne une fusion des points zéros, il nous faut enrichir notre première définition de l'oscillateur stochastique dual 1D. Cela révèle un autre axe dual, {infini-fini}. La voie du fini est la seule solution possible du PAN.  Tout ce passe comme si l'infinité physique (interdite) était commutée vers l'infinité des probabilités. C'est le déterminisme du principe d'action nulle (PAN).  


7. L'oscillateur-boson

Les deux entités symétriques formant l'oscillateur sont appelées tachyons (+/-) pour des raisons de masse imaginaire potentielle. L'entité regroupant cette paire est appelée boson. Il existe deux types de zéro :

  • Le zéro issu de la somme algébrique des deux tachyons qui est strictement respecté

  • Le zéro amplitude : sa courbe est asymptotique, il n'est jamais vraiment atteint.

Si le « zéro amplitude » était atteint, la célérité du cycle suivant serait infinie. Cela conduirait à une amplitude infinie et une séparation causale qui violerait radicalement le principe d'action nulle. C'est justement la variation de la célérité qui évite toute valeur infinie.

 


Nous verrons au & 9, que cette même fonction contrainte par le PAN, se révèle indispensable pour créer un espace 3D.

8. Expression de la dualité par un condensat de Bose Einstein (BEC)

On sait que les bosons sont grégaires et s'associent en BEC. En fusionnant, ils deviennent très froids et donc très organisés. Ainsi la fusion de N points zéros totalement désorganisés (stochastiques) revient à la création d'un BEC. Sa soudaineté n'a d'égale que son crédit d'enthalpie qu'elle donne à la bulle univers quantique naissante. Ce crédit sera dépensé sous forme d'accroissement de son entropie. La naissance de ce BEC peut être vue comme la synchronisation de Huygens. La synchronisation de N boson-oscillateurs conduit à créer les constantes sur la base de la moyenne exacte des paramètres des N oscillateurs, auparavant stochastiques.

L'équation générale de l'équilibre d'un BEC est claire : elle relie la température K (l'agitation) avec la densité de bosons et leur masse. Ainsi l'événement, de nature purement aléatoire, ne peut pas donner un BEC stable. On montre qu'il a toute les chances d'être largement saturé. C'est encore l'aléa qui va créer une mitose (explosive) pour arriver à ce que les BEC-fils perdent leur densité jusqu'à ce que l'équilibre soit atteint. L'univers-bulle est né et son expansion peut commencer sous l'impulsion de l'incontournable mitose (la mutliplication des BECs est de type fractal).

9. La naissance de l'espace 3D

Chaque étape de mitose voit grandir l'intervalle élémentaire entre deux oscillateurs. Il faut comprendre que le BEC, à symétrie sphérique, possède en son centre un point zéro commun. On a donc un réseau d'oscillateurs distribués autour du centre, dont l'amplitude matérialise le rayon du BEC sphérique.

Cependant, à première vue, les amplitudes radiales s'écartent comme des rayons et donc les intervalles devraient varier en r². Chaque couche de tachyons seraient donc de moins en moins denses. Or ce n'est pas le cas, pourquoi ? Il suffit de relire le chapitre 4, où on voit que le PAN contraint la célérité à varier en 1/r². Ainsi, la condition essentielle qui est de garantir une densité constante dans le BEC, est atteinte. Comment ? Tout simplement par le jeu de l'augmentation de surface des couches, compensée par la variation de célérité. En fait, on montre que pour réaliser cela, la trajectoire des tachyons est contrainte de suivre un chemin hélicoïdal. Cela veut dire que des espaces 3D (donc des volumes élémentaires) peuvent construire un espace-temps dans chaque BEC-fils. Mieux, chaque volume élémentaire est ainsi doté d'un spin unique donné par la trajectoire hélicoïdale des tachyons. Chacun des volumes élémentaires est borné par l'effet magnétique des tachyons qui l'entourent. Via le point zéro commun, l'enchevêtrement des volumes élémentaires assure la continuité et la constance de l'espace-temps-spin. Par ailleurs, toute perturbation des oscillateurs, se traduira par une asymétrie autour du point zéro et donc par l'émergence d'une masse imaginaire. C'est l'explication universelle de tous les types de masse extraites du niveau subquantique.

L'espace 3D du BEC est ainsi de type Lobatchevski au sens où les parallèles passent par un même point, à savoir le point zéro commun des oscillateur-tachyons. Cependant il faut répéter ici qu'un modèle physique sérieux ne saurait se contenter de la simple approche de type géométrique avec sa  topologie et sa métrique. L'espace de l'univers observable n'est surtout pas une fiction mathématique mais possède une structure physique dynamique à base d'oscillateurs-duaux synchronisés.     

10. Mitose + séparation causale + annihilation

Chaque étape de mitose voit donc augmenter son intervalle élémentaire. Cela veut dire qu'il existe un lien fort entre le nombre de BEC-fils et le ratio d'augmentation de l'espace élémentaire. On montre que les bosons de la première couche éjectée du BEC-0, subissent une séparation causale. Cela veut dire que la masse des tachyons continue d'augmenter au delà de leur valeur nominale. Cette couche ralentit à la célérité c tandis que la masse augmente à celle d'une paire électron-positron. La quantité de mouvement est conservée. Ces paires électron-positron se comportent localement comme des bosons et peuvent s'assembler en neutron-protons, sans s'annihiler. On montre que les quarks sont induits par les couches de bosons et qu'ainsi une seule paire est nécessaire pour expliquer tout le bestiaire de particules.

Dans le même temps, le freinage amène un recouvrement partiel des paires. Cela implique une grande annihilation qui s'exprime à chacune des étapes de mitose. Ainsi, les intervalles sont agrandis successivement du ratio alpha à chacune des 5 homothéties 3D + une fois en 1D. Il y a conjonction des deux causes d'agrandissement des intervalles (mitose + annihilation qui laissent des trous). On montre que l'enchevêtrement des BEC-fils permet la création d'une bulle d'univers possédant des espaces élémentaires constants malgré l'expansion.


11. Séparation causale = gravitation

On montre avec grande précision que la séparation causale vient du fait que les masses s'additionnent comme des scalaires alors que la somme des charges alternées est de type algébrique. Cela revient à considérer un grand oscillateur dont la variation d'amplitude est matérialisée par l'expansion. On montre avec très grande précision que la somme des gradients de force particulière de rappel des oscillateurs fossiles, correspond à la gravitation.


12. Définition duale de l'espace physique de l'univers

Ainsi l'appellation « univers » concerne l'ensemble infini stochastique + sa bulle quantique en expansion. Comme l'état stochastique n'a pas de flèche de temps, on ne peut pas décompter la phase au cours de laquelle un nombre fantastique de combinaisons sont exécutées au gré de l'aléa. Donc en terme de temps, cet état est quasi instantané. On peut chercher à savoir si plusieurs bulles peuvent cohabiter au sein de cet état stochastique. Le modèle montre que la période moyenne des oscillateur-bosons formant BEC est le temps de l'électron (te =10-21 s). Ce temps représente le pouls de chaque BEC de notre bulle univers. Il est clair qu'une autre bulle aura des constantes différentes (certainement liées au nombre N de 'échantillon aléatoire). Mais prenant celle-ci comme référence, on montre qu'en faisant la somme temporelle de la combinatoire (C Σ te), on obtient un temps extrêmement plus grand que la durée calculée de cet univers. On compare des nombres comme (C Σ te) = (10100)200 secondes avec tU = 1018 secondes. Le temps équivalent au tirage aléatoire ne peut se décompter que dans le référentiel de la bulle univers et dans la limite de son propre tirage aléatoire.

Comme pour le dodécaèdre de Poincaré, la sortie d'un bord donné correspond aussitôt à l'entrée dans le bord opposé. Cependant, le modèle montre que rien ne peut atteindre l'énergie pour franchir la limite d'un BEC formant la « peau » de la bulle univers.

Ainsi la définition du néant passe par un modèle physique complet d'univers. Cette définition sera proche du réel si elle est capable de lever les 33 énigmes fondamentales relevées à toutes échelles.

commentaires

nom de l'ensemble

Dualités fondamentales

déterminisme du principe d'action nulle

l'infini est contraint d'être évité

univers stochastique

dualité fini/infini

action nulle

fusion finie

probabilité

champ infini

est lié à la dualité d'échelle

univers quantique

local

non local

Les deux états cohabitent

univers global

quantique

stochastique

les tachyons en réseau créent l'espace-temps-spin

échelle de localité

quantique

subquantique

aléatoire dans l'état stochastique et constant dans l'état quantique de l'univers

boson-oscillateur

tachyon négatif

tachyon positif

création non locale + séparation causale = boson

boson non local

électron

positron

principe global de l'action nulle

séparation causale

gravitation

expansion

l'enthalpie de la synchronisation en BEC compense l'accroissement d'entropie

action nulle

condensation BEC

expansion

le nombre BEC-fils = ratio d'intervalle final / origine

équilibre BEC

Nb mitose

ratio intervalle

L'intervalle élémentaire de l'espace-temps est celui du réseau de tachyons

non localité du spin

échelle cosmique du BEC

échelle subquantique

la masse du tachyon lui confère une amplitude cosmologique alors que celle de l'électron correspond au rayon du volume élémentaire.

dualité onde-corpuscule

longueur Compton

rayon du BEC

masse électron

masse tachyon



état stochastique de l'univers où le néant est représenté par une infinité de boson-oscillateurs-duaux


transition dans l'état quantique. Les constantes sont celles de la moyenne de l'échantillon synchronisé en BEC


état d'univers quantique caractérisé par la mitose du BEC-0 qui crée l'espace en expansion.

L'unicité est toujours la confrontation d'une dualité.

Au terme de l'expansion d'une bulle-univers, tous les BEC-fils forment une coque sphérique dont le rayon est celui d'Eddington. L'intervalle est d'un demi diamètre (rayon) et donc le taux d'enchevêtrement est de 50 %. Toute la matière est alors totalement annihilée et les BECs retournent lentement à l'état stochastique dont ils sont issus.


Le paradoxe du néant physique

et les trois types de zéro


On a vu dans l'article précédent que les deux situations suivantes ne peuvent être justifiées :

  • Existence éternelle d'une action non nulle

  • Existence éternelle de constantes physiques adéquates.

La première contrainte implique une sommation algébrique duale, strictement nulle. La seconde contrainte implique une notion de fluctuation stochastique (oscillation duale).

On a vu également que la notion de zéro est duale à plusieurs titres. Il y a trois types de zéro très différents entre eux.

- le non zéro physique quantique (indiscernabilité de Heisenberg)

- le zéro strict stochastique (sommation duale)

- l'allure asymptotique du point zéro de l'amplitude spatiale de l'oscillateur dual stochastique

Le premier (directement observé) ne concerne pas l'état néant stochastique. Sa véritable source physique est tout simplement liée au réseau de tachyons relié par le point zéro commun du BEC. Il dit que dans l'intervalle temporel te, le tachyon est indiscernable dans le BEC. Cela revient à dire que le corpuscule électron est indiscernable dans sa bulle de Compton. Il n'est légitime que dans l'état quantique (ayant des constantes) de l'univers. L'utiliser par défaut pour justifier l'émergence à partir du néant, est une des plus grandes erreurs académiques de notre siècle.

Le second type de zéro représente la seule réponse à l'exigence d'absence d'action et de constante. La dimension spatiale est 1D car aucun réseau n'est constitué pour le 3D. Le 3D « spontané » n'existe pas et nous devons montrer en détail comment il peut être constitué sous certaines conditions. Mieux, nous devons montrer en détail comment le déterminisme du principe d'action nulle, est déterminant pour construire le réseau dynamique. C'est en montrant cela que l'univers « non observable » devient transparent.

En terme de dualité, le troisième type de zéro s'exprime comme une commutation entre l'infini physique et l'infini statistique, { phys → stat}. On a vu en détail comment le déterminisme de l'action nulle empêche le zéro-masse de générer l'infini-célérité qui briserait la causalité, elle-même garante de l'action nulle.

L'erreur académique sur les filaments galactiques

Grâce aux progrès intervenus sur les nouveaux télescopes, les cosmologistes révèlent une image du fond profond de l'univers prenant la forme de filaments.



Le modèle académique (CDM) considère à juste titre que c'est la matière noire (DM) qui est à l'origine de cette structure en filaments. Cependant, n'ayant aucune prémisse fondatrice, Le modèle utilise cette matière noire comme accélérateur d'accrétion pour expliquer la formation rapide des galaxies. C'est une grossière erreur commise pour tenter de résoudre des énigmes à partir d'une DM évoquée comme la solution miracle sans pourtant connaître la cause de son existence.

Pour bien comprendre (et non pas se borner à décrire), il faut tout d'abord expliquer d'où vient la matière noire (DM). La déclinaison des prémisses fondatrices du modèle Oscar résout complètement toutes les énigmes (33 sont recensées) en démontrant que les particules de matière sont toutes issues d'un seul type, l'oscillateur dual, électron-positron. Une séparation causale originelle des éléments constitutifs de toutes ces paires, fait que localement, les voisins électron-positrons (de paires différentes) se comportent comme des bosons. Ainsi les règles réductionnistes de Fermi sont fausses car leur validité n'est que locale. Si les paires créées localement restent bien des fermions, c'est un épiphénomène face aux lois profondes de l'univers.

Ainsi les accrétions LOCALES de matière formant la galaxie A est condamnée à s'annihiler en cas de collision avec une galaxie B issue d'une autre région. Il est aisé de comprendre que si l'angle entre les deux région, forme un angle π, alors l'annihilation sera totale. En revanche, tout angle intermédiaire provoquera une annihilation partielle de la matière. Par définition cette matière perdra son lien harmonique avec le « vide » et n'aura plus d'émission spontanée. Ce sera une sorte de boson dégénéré et invisible. Le modèle démontre que le big bang, de type fractal, favorise les collisions primordiales. Ainsi d'énormes quantités de DM sont fabriquées dès les premiers instants. Ces collisions émettent des sursauts gamma dans une large gamme en fonction des angles incidents.

Le modèle démontre que l'espace 3D est un enchevêtrement de condensats de Bose Einstein cosmologiques (BEC). Ces BECs (voir article précédents) possèdent une force de couplage (gamma centripète) qui est inversement fonction du taux de DM. Ainsi les galaxies visibles ont un enchevêtrement serré de BECs formant halo observé et les espaces « vides » et noirs (majoritaires), sont des BECs hébergeant la DM et donc avec un faible taux d'enchevêtrement.


Ainsi le modèle académique :

1/ observe les halos et considèrent qu'ils sont faits de DM alors qu'il la contient.

2/ observe la rapidité d'accrétion des galaxies et pense que c'est une DM opportune qui l'explique

3/ observe des filaments et ne voit pas qu'il ne s'agit que de restes épargnés par les collisions

4/ observe les collisions fréquentes et l'apparition de DM sans faire le lien de cause à effet

5/ observe le gamma centripète de Pioneer et ne fait pas le rapprochement avec le halo

6/ observe des sursauts gamma et ne voit pas qu'ils signent une annihilation partielle

7/ observe les fermions de création locale et pense qu'ils sont valides dans l'univers global (non localité)

8/ observe la non localité de l'intrication quantique et ne voit pas qu'elle est cohérente avec les points précédents.

Fermi et Planck, dans le contexte réductionniste de Copenhague, ont conduit les chances d'explication de l'univers, dans une impasse. En revanche, Eddington, Dirac et Bohm n'ont pas été assez écoutés.

Comme la technologie (purement locale) est source de profits, alors l'hyper spécialisation par l'analyse mathématique descriptive a fini par remplacer totalement la synthèse explicative. Décrire n'est pas expliquer et analyser n'est pas comprendre.




Résumé du modèle Oscar


Concernant l'accélération de l'expansion, les zones en retard sont les seules ouvertes à l'observation (rayon de Hubble) .


La  fonction Ψ qui évite les infinis à l'approche asymptotique du point zéro dans l'état stochastique de l'univers (voir définition non triviale du néant) est ici représentée graphiquement. Ce sont les contraintes du principe d'action nulle qui  permettent de construire  l'espace 3D de l'univers,   à partir d'intervalles élémentaires constants. Avec le temps élémentaire (te = période d'un oscillateur),  toute information passe par le centre (point zéro commun). Cela veut dire qu'une interaction sur l'axe tangentiel est communiquée à la même vitesse que sur l'axe radial. L'espace 3D  et la subtilité de sa structure dynamique amenant l'isotropie, sont très loins de l'image simpliste des fictions mathématiques qui servent à la description de nos applications locales courantes. Décrire (les effets) n'est pas expliquer (les causes).    




Le principe cosmologique est simpliste


Extrait de Wikipédia sur le principe cosmologique


Le principe cosmologique est l'hypothèse aujourd'hui vérifiée selon laquelle l'univers est spatialement homogène, c'est-à-dire que son apparence générale ne dépend pas de la position de l'observateur. Il a pour conséquence que l'Homme n'occupe pas de position privilégiée dans l'univers, en opposition avec la théorie géocentrique (aujourd'hui abandonnée), mais en accord avec le principe copernicien. En pratique, le principe cosmologique présuppose aussi que l'univers est isotrope, c'est-à-dire que son aspect ne dépend pas de la direction dans laquelle on l'observe (par exemple son taux d'expansion ne dépend pas de la direction)..../....Aujourd'hui, tout modèle cosmologique prétendant décrire l'univers doit reposer sur le principe cosmologique, ou en tout cas expliquer pourquoi l'univers le respecte.

Commentaires

1/ Hypothèse : au départ elle ne repose que sur l'idée de simplification

2/ vérifié : non des observations récentes affirment le contraire (voir groupe de quasars Huges-LQG ; le trou froid de l'Eridan, anisotropie des constantes, etc...)

3/ spatialement homogène : l’ambiguïté de cette expression est grande si on ne sait pas définir ce qu'est l'espace réel de l'univers. En revanche, le modèle Oscar explique totalement comment est né l'espace 3D + à partir de la seule contrainte du principe d'action nulle. Cette contrainte incontournable qui n'est donc pas une hypothèse, explique, entre autres, pourquoi l'univers est en expansion accélérée.

4/ apparence générale : l'apparence n'est pas forcément la réalité.

5/ position de l'observateur non privilégiée : c'est vrai mais si elle est relativement proche du centre (6 % dans le modèle) le gradient des vitesses en couche, apporte une apparence de quasi isotropie. C'est justement le « quasi » qui est remis en cause par certaines observations à confirmer dans les années à venir.

6/ isotrope : voir apparence.

7/ expliquer : ce terme n'est pas trivial et exige une rigueur qui passe par la levée des dizaines énigmes fondamentales telles que la DM et l'énergie noire, par exemple. C'est exactement ce que ne fait pas le modèle standard qui n'a même pas recensé les énigmes. Le principe cosmologique relève du principe réductionniste qui élude totalement le problème crucial de localité.