qui

Pour tenter de comprendre l'univers, il faut faire un travail de
récolement pour recenser toutes
les énigmes, mesurées et observées
à toutes les échelles. Voici les 33
questions fondamentales qui
ont servi à poser les prémisses du
modèle OSCAR. Comme tout est
lié dans
cet univers, il faut trouver la structure servant de
dénominateur commun à toutes ces énigmes.
Les axes de dualité s'appliquent à tous les domaines
et par conséquent, à l'univers. Parmi eux, la
dualité {local/nonlocal} joue un rôle clé. A
cela on
ajoute la puissante notion de symétrie
généralisée. Les piliers sont :
1/ le paradigme du fermion relatif non local qui se comporte localement comme un boson. Un boson est toujours dual.
2/ Le ratio de Planck, lié à la mitose d'un premier condensat de Bose Einstein à partir d'un lot aléatoire d'oscillateurs stochastiques 1D qui se synchronisent (refroidissent).
3/ La robuste notion de dualité est étendue à l'objet univers qui se présente sous deux états :
a) état préquantique sans
constante, caractérisé par des fluctuations du
"rien" matérialisé par des oscillateurs-bosons
stochastiques duaux 1D et non connexes.
b) état quantique avec constantes
induites par la synchronisation-refroidissement d'un lot
aléatoire de bosons, formant ainsi un premier BEC instable.
L'instabilité se traduit par une mitose accompagnée d'une
séparation causale qui contraint (1 et 2).
n°
|
prémisses
fondatrices
|
explications
|
1
|
récolement des questions
les plus fondamentales
|
On ne peut pas penser faire un
modèle d'univers sans partir sur une étude complète des
questions fondamentales issues des observables.
|
2
|
principe de symétrie
|
Cette notion est très forte en
physique. Quand elle est (apparemment) violée, c'est toujours en
apparence, ie en oubliant de compter certains éléments subtils.
Cette notion appelle celle de dualité. La symétrie doit
s'appliquer également dans l'axe des méthodes de recherche :
{réductionnisme -holisme}.
|
3
|
principe de dualité
|
Ce principe robuste en physique,
doit être étendu à la notion « d'états d'univers »
car ce dernier qui contient tout, ne peut que l'avoir initié. La
dualité peut s'exprimer par une symétrie chirale.
|
4
|
principe d'action nulle
|
Partir de « rien »
c'est respecter strictement ce principe dans le cadre des
prémisses précédentes.
|
5
|
identification de la localité
et la non localité
|
Il faut impérativement bien
identifier ce qui est local et ce qui est non local. Un des plus
grands paradoxes de ce siècle porte sur cette notion. On y trouve
également la notion de dualité.
|
Pour éviter toute spéculation
et respecter le principe de démarcation, l'application des 5
prémisses doit se faire à partir du néant. Mais pour cela il faut
définir le néant à l'aide des contraintes suivantes :
-
le principe d'action nulle dans
la dualité stochastique
-
le principe du rasoir d'Occam
-
l'absence de constante
-
la démonstration qu'il existe
une fonction de changement d'état d'univers
-
la démonstration que cette
fonction est mesurable dans l'état d'univers quantique.
Sur la base de ces contraintes
strictes, on démontre [1, ,....22] que seul un nombre
incommensurable de bosons-oscillateurs-duaux-stochastiques-1D
(BODS-1) est valide pour représenter le néant. Le principe fort de
dualité, contraint l'univers à présenter deux états :
{pré-quantique-quantique}.

Electron-positons de Création Non Locale
Expérience de pensée
C'est un amendement fondamental du
principe d'exclusion de PAULI et de la statistique de FERMI. Il change le statut du
FERMION
selon son référentiel de
création (par paire). Ainsi, à l'échelle
cosmique, il apparaît la notion de
fermions
relatifs voisins (Frv). Une
simple expérience de pensée suffit à imaginer que
des paires originelles d'électron-positon,
séparées causalement, donc de Création non locale, deviennent localement des bosons
entre voisins. Ces paires formant préalablement des bosons
oscillants duaux dont le lien causal a été brisé
(contraintes des prémisses).
Quand on expérimente localement la création d'une paire électron-positron, son annihilation à suivre est binaire car l'angle qui sépare leur masse-énergie est θ =
π. Cela veut dire que toute la masse est convertie en radiation. En revanche, l'annihilation locale de paires CNL, typiquement fonction de l'angle θ < π qui les sépare, est donc analogique. Pour des condensations entre voisins directs (proton-neutron) θ → 0, l'annihilation est négligeable. Ces paires alternées peuvent donc se condenser comme des bosons. C'est
la raison pour laquelle l'hélium 4 (fait de fermion) est un
boson. Il comporte 4 × 1840 + 4 paires célibataires
(confinées ou pas). Il est boson car 1840 / 8 = 230 (nombre
entier).
Lors de l'expansion, de grandes
entités (galaxies) d'origines
différentes (angle relatif non négligeable)
entrent en
collision. Cela provoque une annihilation partielle des particules
élémentaires. On montre que cette
dégénérescence élémentaire est la
seule cause de la matière noire (DM). Si l'angle
relatif tend vers zéro, les fermions
deviennent des quasi-bosons. Donc ces paires CNL
peuvent se
condenser localement et former neutrons et
protons. A cette échelle, l'annihilation
devient analogique (fonction de l'angle) plutôt que binaire.
Ce simple paradigme est
d'une richesse phénoménale et lève d'un coup, plus
d'une dizaine d'énigmes fondamentales. Ainsi la matière
et
l'antimatière
cohabitent dans les baryons. Localement
la création de paires électron-positron est totalement différente car elle implique une annihilation totale (de type binaire). voir la figure de séparation causale.
ξ = 1.54582057656786 ×1011
C'est la
signature unique de notre univers. De la constante de structure
fine à la très précise mesure de l'anomalie du moment magnétique de
l'électron, tous les ratios physiques lui sont
rattachés. L'instabilité du
premier BEC (Condensat de Bose Einstein) conduit à sa mitose. On montre que la mitose consiste à diviser le BEC-0 en ξ2 BEC-fils de même taille mais moins denses.
Par définition la perte de densité
se traduit par une augmentation des intervalles élémentaires du réseau de tachyons
formant le BEC. Sur une couche du BEC, la surface élémentaire est
agrandie de ξ2 et donc l'intervalle, de ξ.
La
mitose fixe le nombre de BEC-fils (hébergeur d'étoiles) et le ratio
entre le rayon de l'espace quantique élémentaire (EQS) et la taille du
tachyon subquantique. On montre ensuite que les trois paramètres de
l'électron ( λe, te, me)
sont fixés par la moyenne des paramètres des tachyons stochastiques
piégés dans le même point zéro. L'univers dans lequel nous vivons est
donc régit par la conjugaison de ces deux sources typiquement
aléatoires. On montre que le ratio de Planck est largement mesuré et
correspond à :
ξ2 = λe / lp = te / tp = mP / me
α16= 4 π ξ3/3
c = λe / te
G = λe3 / ξ4 me te2
ξ4 / α = [(e² /4 π εo) / (G me²)]
On montre précisément pourquoi la constante de structure fine α est déterminée par ξ.
On voit que les ratios {électron / unités de Planck} représentent le
premier chemin pour déterminer le ratio de Planck. Il existe 3 autres
chemins indépendants qui le déterminent sans ambiguïté, dans le cadre des
prémisses fondatrices. Voir la dualité quantique / subquantique.
La
figure ci-après montre que la transition neutron-proton, se
passe sur l'axe des évènements. Cet axe est médian
entre feuillet quantique et subquantique. Quand l'électron
du couple orphelin est émis, on observe (en négligeant
son énergie cinétique) :
1/ un boson W dont la masse correspond aux paramètres de cet axe soit :
2/5 me √ξ. Sa durée de vie est donnée par :
5/2 te / 4 π √ξ = 2.6.10
-15 s.
2/ un antineutrino est sensé emporter le différentiel de masse (
N-
me-
P) = 1.53 me
= 0.78 MeV. Cela pose un problème de fond car le neutrino se
propage strictement à la vitesse de la lumière et
donc sa masse devrait être nulle. En réalité, le
neutrino emporte la masse virtuelle qui provient du niveau
subquantique. Ainsi la partie massique se trouve quasi
complètement à ce niveau et porté par le
neutrino subquantique. Le couple {neutrino-antineutrino} est comme une
particule de Majorana mais avec cette asymétrie induite par
le miroir déformant subquantique.
3/
un proton dont l'habillage virtuel est paradoxalement
plus important. En effet, en unité {masse électron
mesurée} le proton a un ratio de 1836.15 pour un
ratio "oscar" de masse nue de 1841. Le taux est de 1841 / 1836.15
= 1.0026. Alors que pour le neutron on a : 1842 / 1838.68 =
1.0018. Cela veut dire que le couple {neutrino-antineutrino}
apporte de la masse virtuelle au proton à peine formé.
Cela se comprend si l'on considère que la charge du proton
génère plus de pertubation au réseau subquantique
que la neutralité du neutron (
voir courbe).
4/ une
moindre polarisation du réseau subquantique par la charge
positive du proton qui tend à équilibrer celle
négative, de l'électron. Cependant il ne le fait pas
complètement car la neutralisation des 1840 charges du
proton, de type dynamique, n'est pas parfaite en tout lieu.
Le
photon propage l'énergie de transition,
relativement à l'axe des évènements (axis
events). Ainsi la célérité
intrinsèque du photon est celle du niveau subquantique. Cela
veut dire qu'en dessous du volume élémentaire,
λe, la cérité est supérieure à c. Mais sa propagation se fait dans le temps propre (
te) du réseau oscillant du BEC. Ainsi on a la constance de
c =
λe / te. On rappelle que la constante de Planck est donnée par le réseau subquantique, selon :
h = mo λe R / te
avec la masse du tachyon
ξ3 fois plus faible que celle de l'électron et R,
ξ3
fois plus grande que la longueur de Compton. Cette relation montre
que la période T est commune et confirme que le BEC est
formé par
ξ9 tachyons organisés en
ξ3 couches concentriques et dynamiques de chacune,
ξ6
tachyons. Le modèle OSCAR montre qu'il est impossible de
comprendre la physique de l'univers en la fragmentant en petits
sujets indépendants, car tout est intimement lié.
variation de la charge dans le neutron
Nous
sommes faits d'antimatière
We are made of antimatter
Le
modèle OSCAR est bâti sur des prémisses fondatrices dont le pilier
principal est la révision du statut de fermion. Pour bien comprendre
le propos, il faut revenir aux expériences locales très
précises qui nous ont égarés.
1/
Pauli propose en 1925 le principe d'exclusion selon
lequel les électrons ne peuvent pas se trouver au même endroit dans
le même état quantique. Des expériences
ont été faites en injectant de l'énergie au « vide »*.
On s'est aperçu que cela pouvait créer une (ou
plusieurs)
paire de particules électron-positron. C'était la confirmation de E
= m c². Mais
dès
que les éléments de la paire se retrouvent réunis, ils
s'annihilent.
2/
On a conclu que les paires électron-positon ne pouvaient cohabiter.
3/
Cependant, à l'époque, on ne faisait pas la différence entre ce
qui est local et non local. Pourtant une simple
expérience de pensée (à la Einstein) permet d'envisager la
possibilité, qu'à l'origine de l'univers, des paires
électron-positrons aient pu être créées tout en étant, chacune,
séparée causalement lors d'une brusque extension radiale.
On imagine une distribution spatiale dans laquelle tous les éléments
voisins sont de signes alternés {+ - + -}. Ainsi un électron de la
paire séparée (A) côtoyant un positron de la paire séparé (B),
s'attirent mutuellement mais ne peuvent s'annihiler. Ces
électron-positrons voisins perdent ainsi localement leur
statut de fermion et deviennent des quasi bosons.
4/
Ces bosons sont des fermions de création non locale, devenant
localement des quasi bosons.
5/
Que font des bosons qui s'attirent mutuellement ? Ils se
condensent en condensat de Bose Einstein (BEC). Ainsi les protons et
neutrons sont des pseudo BECs. Ce que la QED considère comme des
gluons sans masse, peuvent tout à fait être des fermion-bosons
locaux.
6/
Pourquoi pseudo BEC ? Tout simplement parce que les conditions du
taux de condensation sont liées à un paramètre de l'univers dont
la valeur est forcément aléatoire. Ainsi le modèle montre (voir le
modèle de proton) qu'il comporte 8 couches neutres formant 1840
unités ou 920 paires. Ensuite pour le proton, un positron
célibataire est confiné (1840+1), alors que pour le neutron on a un
couple orphelin (1840 + 2).
7/
Pourquoi la masse de l'électron est-elle mesurée à 1836,15
électrons et pas à 1841 ? Tout simplement parce que l'unité
{électron mesuré} est faussée par l'habillage virtuel.
L'électron nu est forcément plus léger. Donc, le proton mesuré en
unité {électron nu} est de 1841. On a ainsi directement le taux
d'habillage de l'électron, en faisant le rapport :
k=1841/1836,15 = 1,0026.
8/
Comment le mesurer pour être sûr ? Il y a plusieurs mesures
qui le confirment. En voici deux : la première est celle qui
donne le rayon du proton en considérant 8 paquets de 230 paires ou 4
paquets de 460 éléments. La valeur est compatible avec la
mesure, révisée dernièrement. La seconde mesure est celle de
l'anomalie du moment magnétique de l'électron. Avec ce paradigme on
retrouve la mesure très précise, avec 13 décimales (sans utiliser
l'approche numérologique du modèle standard). En fait il y
d'autres preuves à travers la fécondité inouïe du modèle, à
toute les échelles (voir 10).
9/
Mais ensuite une expérience semble ruiner l'idée développée :
on s'est aperçu que l'on pouvait créer localement une paire
proton-antiproton. Alors on s'est dit que l'antimatière était
formée d'un atome d'anti-hydrogène. Mais en fait, cette symétrie
composite n'est que le croisement local de paires croisées
d'électron-positrons. Il faut réaliser que localement on peut
toujours injecter tout niveau d'énergie dans les limites
expérimentales classiques. Mais puisque le proton est composite on
doit en conclure que ce qui préside au début de l'univers c'est
l'énergie de la seule particule élémentaire et stable qui existe,
la paire électron-positron. Ainsi, l'expérience du
proton-antiproton est un artefact dont la validité reste locale.
C'est tout le danger de l'approche purement réductionniste. Avec
toute la rigueur du monde on arrive à de fausses conclusions. On en
vient alors à violer le plus beau des principes, la symétrie. On en
vient à conjecturer l'idée spéculative d'une « très légère
asymétrie » dans une annihilation primordiale. Non
l'antimatière est mélangée en part strictement égale dans les
baryons. Ainsi, l'univers avait une probabilité de ½ pour
s'équilibrer avec un électron négatif non confiné. Une fois ce
choix (aléatoire) établit, il devient la règle général à grande
échelle.
10/
Oui mais l'expérience montre, par exemple avec du fluor, que des
positons sont émis et s'annihilent au premier électron rencontré
(via le passage par un fugace état positronium). Alors pourquoi
s'annihilent t-ils ? Tout simplement parce que ce type de positron
est de création locale par paire. L'électron de la paire
reste tout simplement confiné dans l'atome de fluor. LA QCD a
d'ailleurs un problème avec la durée de vie du positronium. En
effet, pour que l'annihilation puisse se faire avec le premier
rencontré, (qui n'est pas celui de la paire créée), il lui faut
faire un transfert d'énergie avec l'original confiné dans l'atome
de fluor.
11/
En appliquant ce raisonnement fécond, on résout d'emblée une
multitude d'énigmes, soit :
11-1
L'énigme de l'antimatière
11-2
La symétrie est ainsi exacte et il inutile d'invoquer une légère
asymétrie. Légère ou pas, cette idée n'est pas justifiable.
11-3
La matière noire découle naturellement de cette loi quand on
regarde les collisions de galaxies qui forment un angle non
négligeable entre leurs origines respectives. Le taux
d'annihilation élémentaire devient relatif à cet angle. Le lien
harmonique avec le « vide » est rompu et donc la matière n'a
plus d'émission spontanée. Cela est bien observé ! La masse
d'un électron, réduite de quelques points, ne résonne plus avec le
« vide ».
11-4 La cause de la gravitation par la
séparation causale sur la circonférence (2πR) de la première couche du BEC primordial qui comporte √ξ8= ξ4tachyons, d'intervalle λ0. On a alors le ratio {coulomb/grave} = R / λ0 qui vérifie que le gradient du champ coulombien est bien l'expression du champ gravitationnel.
11-5
Les sursauts gamma sont là pour indiquer l'intensité du taux
d'annihilation
11-6
La température dans les amas dépend ainsi de leur taille car cela
revient à fixer un angle originel. Si l'amas fait 1 % de la
taille de l'univers, alors la température sera de 1 % de celle
de l'électron. Cela est bien observé.
11-7 L'énigme du retard d'annihilation de l'orthopositronium.
11-8 La cause de la condensation des paires
électron-positron en protons et neutrons.
12/
On retrouve exactement le même raisonnement (local non local) avec
les acides aminés. Localement on sait synthétiser les deux
énantiomères (gauche – droite) des acides animés de la vie.
Cependant la nature ne nous en présente qu'un seul.
13/
Le neutrino ne nous montre que son hélicité gauche. Le modèle
OSCAR nous dit pourquoi.
14/
La polarisation du « vide » dépend du différentiel du
taux d'habillage entre électron et proton. La symétrie de charge
entre ces deux particules est perturbée par le différentiel
d'habillage virtuel.

A l'échelle du BEC (150 milles années-lumière) la non localité est liée
à l'écoulement alternatif du temps des oscillateurs subquantiques
Tableau résumé :
expérience |
création locale |
création non locale et séparée |
paire électron-positron |
fermion, annihilation |
boson voisin, condensation |
proton (+ anti) |
croisement de paires électron-positrons |
composé d'électron et donc condensation second temps |
positon émis |
s'annihile avec premier électron |
reste confiné (polarisation du vide) |
anti hydrogène |
artefact local |
un seul niveau d'énergie donc n'existe pas |
* Au mot "vide" nous préférons "subquantique".
Les 8 relations fondamentales du modèle
The 8 basic relations model
Avec α = 137.0359996803 et ξ = 1.54582057656786.1011
A cela il faut rappeler le modèle de proton dont le rayon (
rP) est directement lié à ces 8 relations.
rP = λe / 460 + λe / 8 α2 (9)
Avec
460 = 1840 / 4. La relation (8) montre que l'anomalie du moment magnétique
de l'électron est légèrement variable au cours du
temps cosmologique. Cette anomalie dépend de l'influence
virtuelle qui est liée au taux d'habillage. En faisant le ratio
des taux d'habillage {muon / électron} seule apparaît l'anomalie de la
particule de base (l'électron lourd qui sert d'unité). En fait
(2-ln
ξ8/207)
donne le produit du taux d'habillage virtuel par le taux
d'anomalie. Ensuite en divisant par le taux d'habillage de
l'électron (1841
ξ2 /
α12),
seul apparaît, le taux d'anomalie. Le muon est une
particule fugace liée à la résonnance subquantique
induite par le nombre de paires électron-positron d'origine
(proche du nombre de photons après annihilation). On peut
également l'interpréter de deux autres
façons :
-
(2
−ln
ξ8 / 207) peut s'écrire
(2
−8 ln
ξ / 207) dans laquelle
ξ représente le ratio d'énergie transmissible {subquantique / quantique}.
- (2
−ln
ξ8 / 207) peut s'écrire
(2
− ln
ξ9-1 / 207) dans laquelle
ξ9 représente le nombre de tachyons dans le BEC auquel on soustrait le ratio ci-dessus,
ξ . Ce choix est indécidable mais les différentes solutions sont des reflets exacts, les unes des autres.
En posant :
kμ = 207 / ln ξ8 ;
kP =1841 / (α12/ ξ2) et
kB =
(α+π) /ξ , on obtient une forme plus explicite de la (8) :
αe = (2 kμ − 1) / (kμ kp) −kB (10)
soit : 1,00115965218843
Elle
est située dans l'écart de confiance de la valeur
expérimentale : 1.001159652181(7), selon PDG 2008
(Particle data Group). Elle est 100 fois plus précise que celle
issue du calcul du modèle standard qui relève de la
numérologie.
La relation (10), sans le terme correctif, affiche déjà une précision de l'ordre de 10-9.
Ce résultat est surprenant et pourtant, selon ce modèle,
on mesure toujours des ratios relatifs au
seul électron. Cela veut dire que la mesure de l'anomalie
du muon (1.00116592080) tient compte de celle de ses couches superposées. On
mesure donc l'anomalie de l'électron célibataire,
légèrement augmentée (2.10-5)
par l'influence non nulle de ses couches neutres constitutives. La
forme de la (10) produit le ratio global des
ratios anomalies {masse virtuelle et moment
magnétique}.
Le muon est un lepton (pas de force forte) car le nombre
résultant de paires électron-positron, nues (
206),
n'est pas divisible par 8 pour former 4 paquets de paires neutres
imbriquées. En revanche, le pion
π
(
134.976 MeV), équivalent à
264 masses
élémentaires (en unité electron nu) est bien
divisible par 8 et produit donc des quarks (
u et dbar).
Le proton
n'est pas une résonance comme le muon mais un condensat de paires
électron-positrons de création non locale. Le
nombre est directement fixé par la règle de division
(mitose) qui fait loi partout dans le modèle. Ce nombre (taux de
condensation) dépend strictement de la surface
élémentaire actuelle qui vaut
ξ2 fois
celle d'origine et divisée par l'élargissement
d'intervalle intervenu en 6 étapes en 2D,
soit : α12. On a le taux de condensation forcé par la mitose :
α12/ 4 ξ2 = 458.8
Dont le nombre pair entier d'électrons condensés qui
correspond est 460 comme le prévoit la relation (9) ci-dessus.
Cela justifie
l'exposant de la constante de structure fine :
16 = 53
+ 1 dans la relation (4). Ensuite, le terme correctif est une contrainte
incontournable du modèle. Il est lié au nombre de
BECs
(ξ)
présents sur la circonférence du BEC-0. En 2D (sur la première couche) on a
π/ξ et après l'annihilation, on a :
α/ξ.
Cela veut dire que les paires électron-positron de chaque
BEC-étoile, ont une masse réduite d'un taux de l'ordre de
1.10
-9. Cela est compensé largement par l'habillage
virtuel dont le taux est de l'ordre de 1,0031. Mais l'anomalie
liée à ce taux virtuel, en dépend
forcément.
Origine des leptons
Origin of leptons
On a vu que selon le modèle Oscar, dans le
tableau des fermions, l'électron occupe une
place privilégiée.
Le modèle standard n'explique pas l'origine des
fermions. Pour les leptons, le modèle OSCAR considère
que la chaine de désintégration tauon → muon
→ électron est émaillée de
créations
locales
sous forme d'assemblages de paires électron-positron qui s'annihilent dans
un laps de temps très court. La durée de vie du tauon est
de 2.8.10
-13 s. Ce temps est plus court que celui de l'orthopositronium (1.42.10
-7 s) ou de celui du muon (2,2.10
-6 s). On obtient le tableau
suivant :
Ce tableau explique pour la première fois la source des
masses des leptons. On voit que les nombres pairs exprimés en
unité "électron nu" ne sont pas divisibles par 8 (comme
pour les pions ou le proton) et ne peuvent donc induire des
quarks.
Muon et tauon sont formés de paires neutres
d'électron-positron, issues du tissu subquantique à
différentes échelles. L'électron
célibataire donne la charge négative. La
coïncidence numérique entre électron (e), muon (m)
et taon (t), vue par Yoshio KOIDE, de type :
(e+m+t)
/ (√e+√m+√t)2 ~ 2/3,
semble être une approche numérologique
plutôt que physique. Pour évoquer la masse du
neutrino il faut tenir compte de son reflet dans le niveau subquantique
(voir la rubrique au sommaire). L'anomalie du moment
magnétique du taon est ici supposée être
proportionnelle à l'écart du muon avec l'électron
dans le rapport des masses.
Aparté sur le proton
On rappelle ici que le modèle oscar
explique la faible anomalie du proton en rapport avec le
modèle en 4 couches, qui prédit son rayon avec
précision. Le modèle standard pose :
μp = gp e h / 4π mp
avec gp = 2.79284739, l'anomalie (standard) du proton. La même relation avec "oscar", en substituant
h à sa vraie définition, se pose comme suit :
μp = gp e c me λe /4π mp
ou
μp = gp e c λe / 4π P
ou
μp = gp C λe / P
Avec
P = mp/me et
C = e c / 4π
on voit bien que
gp vient corriger
P à la baisse. Comme selon le modèle oscar de proton ,
rp ~ 4
λe /
P, on peut écrire :
μp = gp C rp / 4
Ainsi le rayon moyen du positron célibataire (
rpc) se détermine par :
rpc = rp (gp / 4)
qui situe
le rayon de l'onde sphérique du positron célibataire confiné à l'intérieur du proton (rp /
1,43), en parfait accord avec le modèle "oscar" du proton.
Ainsi nous mettons en évidence que le rapport de masse (au
numérateur) n'est pas un paramètre valable dans ce type
de calcul. Le proton possède un moment magnétique
faible tout simplement parce que son positron
célibataire est confiné dans un rayon plus petit que
celui du proton. Ainsi la véritable formule du
moment magnétique du proton est relative à celle de l'électron (libre) :
μp = μe rpc / λ
Mais à l'instar du
tauon, l'anomalie du proton devrait se situer
légèrement au dessus de celle de l'électron libre.
En suivant la même règle que précédemment,
l'écart d'anomalie se compare avec celui du muon, d'un
facteur (1841/207). Il devrait donc se situer vers un taux
de : 1,001215. Ainsi,
l'énigme de l'anomalie du proton est résolue par la
remise en cause de l'utilisation de h
qui masque l'action des paramètres de l'électron
(ici le positron confiné). (h est l'archétype
du faux ami). La parité de charge
(électron/proton) , pourtant vérifiée au niveau
quantique, n'empêche pas une certaine asymétrie
subquantique révèlée par le (léger)
différentiel d'anomalie magnétique.
Retour aux leptons
Comparaison des durées de vie moyenne entre leptons
On peut voir ici la confirmation que les leptons sont
des empilements de couches de paires d'électron-positron
créées
localement.
Elles se comportent comme les positroniums avec une durée de vie
moyenne déterminée par le nombre d'éléments
à annihiler. Le temps relativement long du muon s'explique par
le fait que son produit de désintégration est
limité à un électron + {antineutrino e +
neutrino muon}. Ce sont ces derniers qui répartissent dans tout l'univers, la masse
des produits annihilés, très majoritairement, au niveau
subquantique.
Ralentissement de l'expansion moyenne de l'univers
slowing the average expansion of the universe
Récapitulatif des observables et de leurs interprétations :
1/ On observe une accélération de l'expansion de l'univers dans la bulle de notre horizon cosmologique.
2/ Cette accélération est bien réelle mais on en
déduit (sans preuve) qu'elle représente le taux
moyen d'expansion.
3/ On en conclut qu'il convient de rajouter un terme sous le nom de
"constante cosmologique" dans l'équation d'Einstein pour "tenir
compte" de cette mystérieuse "énergie noire".
4/ On envisage naïvement un univers en expansion infinie.
5/ Les derniers relevés de WMAP indiquent que le nombre d'onde
(2) est très faible. La faiblesse de cette première
harmonique (quadripole) indique un univers fini sinon les nombres
d'onde (2 =4 et 3 = 8) seraient à forte dominance. Cela implique
que l'univers n'est pas infini !
6/ On détecte une anisotropie de
l'accélération dans la constellation du Petit
Renard. Dans cette direction le gamma semble plus élevé.
7/ Si l'observation (6) est confirmée, c'est l'abandon du
paradigme simpliste appelé "principe cosmologique". Le
penchant réductionniste (sans prémisses physiques
fondatrices), ainsi remis en cause, fait trembler les plus
conservateurs des cosmologistes.
8/ la Voie Lactée possède une vitesse relative (620 km/s)
au fond diffus qui fait qu'elle se dirige vers la constellation du
Centaure (Grand attracteur).
9/ Dans la direction opposée de (8) on observe vers l'Eridan, un
grand trou vide de 1 milliard d'années-lumière.
On voit que deux observations (1 et 6) sont d'emblée mal
interprétées. Par ailleurs personne ne fait le
rapprochement entre (8 et 9).
La fascination mystique du zéro et de l'infini
Il est heureux que ces observations tendent à ramener un
peu de sagesse dans la communauté scientifique. Comment peut-on
envisager une expansion infinie ? Raisonnons un peu : chacun sait que
matière et antimatière sont strictement paritaires
(la base absolue de la symétrie). Donc une séparation
causale initiale ne peut qu'être provisoire et la notion d'infini
n'est pas compatible avec le recouvrement futur des paires causalement
séparées.
Ensuite, on retrouve encore ici, l'esprit réductionniste : "ce
que je vois dans l'horizon cosmologique doit être étendu
comme tel à l'univers entier".
La géométrie de l'univers
L'isotropie observationnelle est presque parfaite, c'est un fait. A
première vue cela semble écarter un univers à
symétrie sphérique car la coïncidence de nous
trouver en son centre (ou proche) est à écarter. En
revanche, la géométrie sphérique peut-elle offrir
une quasi-isotropie pour des coordonnées quelconques, sous
certaines conditions ?
En fixant la direction de l'éridan comme celle du centre de l'univers sphérique
on obtient des coordonnées cohérentes avec les conséquences du modèle
de l'univers en couches de gradient d'expansion dans lequel la quasi-isotropie
n'est qu'une apparence. On notera que Liitle fox (Petit Renard) fait un angle de
90° avec l'axe : éridan => Grand Attracteur. On rappelle que le modèle est bâti sur la dualité
cyclique de l'état de l'univers. L'état
quantique (avec constante) dont nous sommes faits, possède
un centre matérialisé par les restes fossiles
(trou noir éridan) du premier condensat de Bose
Einstein
instable issu d'une superposition aléatoire d'oscillateurs stochastiques..
La réponse à la question ci-dessus
est positive et nous allons voir qu'il n'y a rien de
mystérieux dans cette accélération car elle est
compensée par une décélération
symétrique
des couches en avance (majoritairement hors de notre horizon cosmologique). Encore une
fois, non seulement l'explication n'est pas
déconnectée de l'ensemble du modèle mais elle en est
une
conséquence directe.
On a bien le schéma suivant : contraintes du modèle
+ observations = explications du phénomène. Une
équipe de cosmologues (dont des Français) a d'ailleurs
détecté un
ralentissement de
l'expansion en octobre 2012. Il est difficile de savoir si cette mesure
concerne le ralentissement lié aux collisions où le
début du ralentissement des couches en avance.
(à suivre).
Big bang fractal et énergie noire
Big Bang and dark energy fractal
1/
Pourquoi l'univers est-il en couches de gradient d'expansion ?
On a vu que le premier BEC cosmologique était instable (aléa du
terme de densité de bosons). Cette instabilité se traduit par une
mitose selon la suite de Fibonacci
formant un fractal de Sierpiński,
lié au nombre d'or. On a la suite de causes à effets :
surdensité
bosons du BEC-0 → mitose → suite
Fibonacci → fractal d'or → tenseur des
vitesses → expansion en couches
La mitose fractale produit un
champ de gradient des vitesses, matérialisé par des particules élémentaires
chacune dotée d'une quantité de mouvement unique.
Tous
les vecteurs (1, 2, 3,...n) ont une quantité de mouvement
élémentaire
strictement égale. La projection radiale (1) est maximale
alors
que (2)
est faible et que (3)
est nulle, après collision.
Ainsi il se créé un
tenseur (champ de projections radiales). Cela se passe très
différemment du déroulement d'une explosion où les trajectoires,
purement radiales, ont peu de chance de se croiser. La forme
fractale, au contraire génère des collisions dont l'angle relatif
est d'autant plus grand qu'il est précoce.
2/
Observons-nous ces collisions ? Oui et en plus, toutes
les observations confirment la loi :
précocité = grande
fréquence des collisions + création de
matière noire
Pour une collision
purement tangentielle, la résultante d'expansion radiale est nulle.
Par symétrie il existe des trajectoires purement radiale dotées
d'une résultante radiale maximale. Ainsi, la forme fractale induit
un spectre continu de projections radiales allant de zéro à 1. Cela
créé une succession de fronts d'ondes sphériques.
3/
Par quoi ces couches sont-elles matérialisées ?
Elles sont matérialisées par des BEC-fils enchevêtrés formant le
substrat subquantique de l'univers. Il existe donc des couches en
avance et des couches en retard. Les couches en avance étirent
(déchevêtrent) les BECs constitutifs.
4/
Qu'est-ce qui fait la cohérence du substrat ?
On
a vu que chaque BEC comporte une force centripète,
mesurée sur la sonde Pioneer 10. La perturbation de la
matière tend à briser la symétrie des oscillateurs
tachyons. Le réseau subquantique réagit par une force
qui tend
à ramener toute la matière au centre. Cela se
traduit également par une condensation des groupes de
BECs, par enchevêtrement. Au contraire, les
vitesses différentielles entre couches tendent à les
déchevêtrer. La déformation est de type mixte
à dominance plus
plastique qu'élastique. Il y a donc deux forces contraires qui
tendent à s'équilibrer. Il est intéressant de
noter que les mesures de Pioneer 10 confirment que cette force ne
dépend linéairement que de la vitesse
relative. Cela veut dire que la rigidité
élastique réagit à toute augmentation du gradient
de vitesses entre deux couches successives. C'est une garantie de la
bonne continuité de la cohérence du substrat.
5/
Quelle est la conséquence d'un tel équilibre ?
C'est tout simplement la tendance à l'homogénéisation des vitesses
autour d'une expansion moyenne. Pour se faire les couches en retard
sont forcées d'accélérer et par symétrie, les couches en avance
(hors de l'horizon cosmologique), sont forcées de décélérer.
6/
Quel est ce trou dans la figure ci-dessus ? C'est
la trace (agrandie d'un facteur 6) fossile du BEC-0. Il est bien observé à 7
G.a.l. de la Voie Lactée, en direction de l'Eridan.
7/
L'univers a t-il un centre ? Il faut poser la
question autrement car la dualité s'applique également à
l'univers. On rappelle qu'il a deux états : a) un état
pré-quantique sans constante (stochastique) ; b) un état
quantique avec constante. Le premier n'a pas de centre (ni de
continuum masse-espace-temps). Le second, dont nous sommes faits, est
né d'un BEC primordial instable, qui est le centre observable.
8/
Alors pourquoi cette quasi isotropie observationnelle ?
Tout d'abord voyons le principe général. En regardant vers le trou
de l'Eridan nous recevons ses photons émis il y a 7 G.a.l. Il est
donc naturel que nous puissions voir au delà de ce trou à une
limite déterminée par la vitesse de la lumière. Si le décalage
vers le rouge est maximum pour un lieu symétrique à notre position,
c'est que le différentiel des vitesses d'expansion est égal à c.
Cela veut dire que le substrat local de la Voie lactée, possède
une vitesse d'expansion absolue à environ c/2.
On note que notre horizon dans la direction de l'Eridan, possède la
même accélération d'expansion que nous.
En regardant ensuite à
l'opposé, vers le Grand Attracteur, nous voyons en
limite, un lieu où le différentiel des vitesses d'expansion est
strictement égal à c. Cela veut dire que ce lieu possède
une vitesse d'expansion absolue de 1,5 c. Localement Il ne
présente pas d'accélération d'expansion. Cependant l'étirement du
substrat fait que les photons progressent moins vite relativement à
un substrat statique. Cet effet est mesuré comme étant une
accélération. C'est une équation de la forme de celle de
l'escargot avançant sur un élastique en cours d'étirement.
Dans laquelle c'est la
célérité c qui joue le rôle de l'escargot et E qui
quantifie le coefficient d'étirement du substrat fait de BECs
enchevêtrés.
9/
Que se passe t-il dans la
constellation du Petit Renard ? C'est une
direction orthogonale à l'axe Eridan–Grand Attracteur. Bien que
l'axe de cette observation soit tangentiel, l'effet retard des
photons en provenance de ce lieu amène la trajectoire à décrire
une courbe dont l'origine est le centre. Ainsi la ligne de l'horizon
tend à s'éloigner plus vite que dans l'axe radial. Il est donc
possible qu'une anisotropie de l'accélération apparente soit plus
importante que dans l'axe radial.
Plus
généralement on peut dire que :
1/ dans la bulle de notre
horizon tout est (ou apparaît) en accélération.
2/ au delà de cette
bulle, une partie est en cours de décélération
3/ Compte tenu de notre
position, la bulle ne peut être une sphère parfaite.
4/ Pour un observateur
plus rapprochée du centre, les mêmes effets seront vérifiés
5/ la valeur moyenne de
l'expansion est plutôt en phase de ralentissement car les dernières
mesures confirment bien que la masse noire augmente avec
l'éloignement. On rappelle que la conséquence directes des
prémisses fondatrices (voir statut des fermions de création non
locale) est la création de matière noire. Encore une fois, comme la
distribution du champ de vecteur d'un tel fractal, est uniforme, cela
rend rare toute direction particulière. La direction radiale pure
(couches en avance) est minoritaire. Il vient que l'inertie de
l'ensemble des couches en retard doit l'emporter pour forcer
l'ensemble au ralentissement. La gravitation globale joue ici un
second rôle.
10/
Le tenseur du au fractal n'est-il pas une sorte de gravitation ?
C'est exactement cela. Explication :
1/ La gravitation est née
de la séparation causale des paires électron-positron de la
première couche du premier BEC.
2/ le déroulement
{instabilité + mitose + nombre d'or + fractal} est la source de ce
tenseur qui créé des couches dont c'est l'effet retard qui
l'emporte.
11/
Est-cela les 74 %
d'énergie noire, évoqués par le modèle standard ?
Oui sauf qu'au demeurant ces 74 % sont faits de matière noire,
qui est bien plus importante dans le passé que dans les galaxies
environnantes. Les dernières observations vont tout à fait dans de
sens. Quand le modèle OSCAR fait le bilan de la matière, il tient
compte d'un ratio de matière noire (global), 25 fois plus important
que la matière visible. Dans les galaxies contemporaines, ce ratio est plutôt de
l'ordre de 5 fois.
suite 1
Notre bulle d'horizon dans l'univers,
une apparence d'isotropie

Il est probable que
la légère anisotropie mesurée en direction de
la constellation du Petit Renard soit confirmée, y
compris dans la direction opposée. Selon le nombre de
photons émis lors de l'annihilation primordiale, le rayon
réel de l'univers est de 78 G.a.l. (au lieu de 47 pour le
modèle standard). La vitesse canonique (non relativiste)
d'éjection des particules élémentaires est
toujours c mais s'additionne à chacune des 6
étapes fractales. Les couches les plus en avance, progressent
donc à une vitesse d'expansion maximale de 6 c. Sans la
décélération attendue, le rayon actuel serait de
80 G.a.l. au lieu des 78 prédit par le modèle OSCAR. On
rappele que selon le modèle, la première couche du BEC-0
s'est trouvée saturée par chevauchement des site des
oscillateurs voisins. On montre que cela revient à
considérer que la période (
te) typique d'un oscillateur est multipliée par la racine carrée du nombre total d'oscillateurs soit :
√M/me ou √ξ8 / α3
pour devenir la période le l'oscillateur univers. Avec ce
calcul imposé, la demi période de l'univers est de 18,2
G.a. Elle correspond à l'amplitude maximale où l'expansion moyenne devient nulle.
Selon cette interprétation, la Voie Lactée est donc le
résultat d'une collision précoce (donc très
banale) avec une autre galaxie primordiale. La matière
noire, très majoritaire juste après la collision, s'est
maintenant dissipée pour ne plus représenter que 5 fois
la matière ordinaire.
Avec Ro, le rayon d'amplitude
maximale de l'univers. La pente des courbes bleues est plus forte car
la masse (noire) de ces couches est plus faible que celle des couches
rouges (en retard pour cause de collisions à grand angle).
suite 2
12/
Quelle est cette quantité de mouvement unique des particules
élémentaires évoquées à la question
(1) ? Tout simplement la quantité fondamentale, E = me c². Quand Einstein annonce cette fameuse équation, elle est sous la forme générale : E = m c² où m est quelconque. Ici nous disons que :
a)
la masse de l'électron ou du positron est la seule et unique
masse élémentaire issue d'un tachyon séparé
de la première couche.
b) cette énergie est liée à la vitesse d'expansion relative à son émetteur v = n c {n = 1, 2, 3, ....6} qui est une des branches du fractal. Elle est totalement différente de celle qui est relative au substrat (BEC-fils) car la particule est en expansion covariante avec son BEC-hôte.
c)
Ainsi l'énergie de masse (déduite mais jamais
expliquée) est celle qui est relative à l'émetteur.
d)
l'émetteur est une des branches du fractal, qui
elle-même possède une vitese d'expansion. Dans ce cas, les
vitesses sont additives.
e) le
lorentzien s'applique relativement au BEC-hôte et plus
précisément aux espaces élémentaires
(intervalles) du réseau de tachyons qui le forme. Il ne
s'applique pas du tout à la vitesse d'expansion.
à suivre....
Suite 3
Fin de l'expansion
de "l'univers-oscillateur"
End of the expansion of the "universe-oscillator"
13/
Y-a t-il un lien entre la réponse (11) ci-dessus et la durée d'expansion ?
Oui car relativement à la matière visible, les
couches en retard ont un taux de pondération de 25 pour la
matière noire alors que les couches en avance ont un taux de 5
(taux de production interne comme la Voie Lactée).
Ainsi la moyenne pondérée des vitesses d'expansion doit
se faire
avec le poids (statistique) de la matière noire.
L'équation est de
la forme :

Période trou noir = période
oscillateur
En cohérence avec la relation (4) ci-dessous, la moyenne
pondérée des vitesses d'expansion (entre 1 et 6
c) est
c comme utilisé dans la relation (2) qui donne une demi période, T
U = 1,32 fois l'âge actuel (18,12 G.années). Le premier
terme est celui d'un univers « trou noir » et le second
terme est contraint par le modèle qui est cohérent avec la mutualisation des masses des
oscillateurs particuliers en un seul et immense oscillateur. Cela
confirme que la moyenne des projections radiales des vitesses doit
être pondérée avec les masses noires, ce qui revient à dire que
c'est la quantité de mouvement qui commande l'univers oscillateur.
Ainsi la moyenne pondérée des vitesses n'est plus :
Dans laquelle est attribué le poids minimum, 5 à la vitesse 6 c et le poids maximum, 25 à la vitesse 1 c. Cela revient à une vitesse moyenne compatible avec la relation (2).
14/ Que se passe -t-il après la fin de l'expansion ? A
ce moment, la vitesse moyenne d'expansion est nulle mais les
couches en avance et en retard continuent de se comprimer pour former
à terme une coquille. Ce terme, certainement très
lent, amène ensuite au recouvrement total des masses
séparées. Cela revient à terminer le cycle par une
annihilation totale y compris celle de la masse noire.
15/ Que deviennent les BECs vides ?
Ils ne sont pas vides mais remplis de photons. En cohérence avec
ce modèle, les photons disparaissent rapidement après
avoir informé (équilibré) tout l'univers-coquille. Comme ce volume en coque est
très petit, les BECs finissent par effectivement être
vides. A ce moment, comme les perturbations des particules ont
disparu, les BECs deviennent indépendant car plus aucune force
ne les lie. Il s'évapore donc pour laisser place à
l'état d'univers pré-quantique, fait d'oscillateurs
stochastiques indépendants (non connexe). Le continuum
masse-espace-temps disparaît. Ainsi rendu aux seules lois
statistiques, et sans écoulement de temps, cet état
d'univers préquantique voit une condensation fortuite d'un
certain nombre d'oscillateurs du « rien ».
Cette condensation-synchronisation-refroidissement (CSR) forme un BEC
instable. Des constantes qui apparaissent, représentent les
moyennes stochastiques du lot condensé. Le principe de
dualité est robuste car il concerne l'univers lui-même.
16/ Le « rien » est-il déterministe ?
Oui en quelque sorte. La loi de probabilité, liée aux
grands nombres, dans le cadre d'un univers préquantique sans
écoulement du temps, rend inexorable la formation d'un
BEC. Ce BEC génère toujours des constantes
(statistiquement jamais les mêmes d'un univers quantique à l'autre) mais il peut être
de durée très variable. La grandeur du lot est une variable
aléatoire et ainsi le ξ créé n'est jamais le
même.
17/ L'égalité (2) a-t-elle une troisième voie mesurable ?
Oui et le livre montre comment le pion π0 est la résonance
fondamentale de l'univers. Cette relation toute simple le montre :
Dans laquelle la durée
de de vie du pion π0
est le reflet de l'âge de l'univers. Attention
l'égalité (2) donne la demi période de l'univers et non son âge.
18/
où sont les preuves de
tout cela ?
Outre la cohérence du modèle (logique et numérique), on a vu que
chaque étape correspondait parfaitement aux observations. Par
exemple les dernières observations cosmologiques indiquent
clairement que les collisions (amas, galaxies) sont toujours
créatrices de matière noire :
a) observatoire de Paris
:
http://www.obspm.fr/actual/nouvelle/jun06/tdg.fr.shtml
b) SPACE.Com
http://www.space.com/15423-early-galaxies-star-formation.html
c) Physical Review
http://prd.aps.org/abstract/PRD/v26/i10/p2681_1
Elles disent
également
que la fréquence des collisions et le taux de matière
noire augmente avec la distance (donc la précocité). Cela
est
bien cohérent avec le fait que notre horizon cosmologique est
limité
aux couches en retard qui sont donc en phase
d'accélération. Ce
modèle est construit en prenant en compte toutes les
observations
sans en éclipser aucune. La rigueur mathématique
(avérée) du modèle standard surfe sur une mer dépourvue de
prémisses fondatrices. Il est donc logique qu'elle ne mène qu'à
des énigmes observationnelles. Forte est la tentation d'en
« oublier » quelques unes comme le trou de l'Eridan qui
est volontairement éclipsé dans les débats.
Tout récemment on découvre la
galaxie spirale BX442
qui dément le scénario standard qui attend que les
grandes galaxies soient faites de fusions de petites galaxies
primordiales. Le modèle OSCAR attend au contraire de grandes
galaxies très précoces dont la majorité entre en
collision en laissant beaucoup de matière noire et des
débris sous forme de galaxies naines. Les galaxies
précoces (comme BX442), non déformées, sont
celles (plus rares) dont l'angle d'éjection (proche de
radial) leur a permis d'échapper au régime
majoritaire de collisions.
La majorité de la matière noire précoce se
trouve dans des galaxies noires, hôtes des BECs qui peuplent
l'espace (noir) inter-galactique que l'on
observe.
Comme le montre le modèle, la force de cohésion de ces
BECs noirs est plus faible que celles des BECs formant halo autour des
galaxies visibles (minoritaires). Ainsi l'emboitement des BECs noirs
est plus lâche et peut remplir ainsi tout l'espace
intergalactique. Il n'est qu'à regarder la voute céleste
pour constater que cet espace est majoritaire.
19/
Quelle est la distribution de matière dans l'univers ?
Selon le modèle OSCAR, la distribution de matière dans
l'univers dépend directement du rayon. La matière visible
représente 5% du total et donc la matière noire
représente 95%. La matière noire est l'effet d'une
dégénéressence (annihilation analogique) des
baryons originels lors des collisions. La haute fréquence des
collisions primordiales induit deux conséquences :
a) grands angles relatifs des collisions
b) résultante expansion (radiale) faible et donc effet retard
c) transformation intense de matière visible en matière noire
d) température d'annihilation (partielle) mesurable.
20/
Pourquoi reste t-il 1/5eme de matière noire pour les
couches avancées, pourtant réputées sans
collision ?
On a vu que les amas avaient une taille suffisante pour que
lorsque deux galaxies opposées se croisent, elles produisent de
la matière noire. Cette production (comme celle des galaxies)
est indépendante du rayon de l'univers et reste
sensiblement une constante.
21/
La taille réelle de l'Univers (6 fois le rayon de Hubble)
est-elle plus petite que les BECs-fils emboités ? Si on compte les volumes cumulés des
ξ2
BECs-fils, on s'aperçoit qu'il est 150 000 fois plus vaste
que ce volume. Mais en fait le taux d'emboitement est plus faible pour
la masse noire (intergalactique) que pour une galaxie. La raison est
que la masse noire interagit moins avec le réseau du BEC
que la masse visible. Parmi les galaxies, celles qui ont un taux
élevé de matière noire en
prériphérie, sont de fait plus étendues. Cela ne
se voit pas (par définition) mais le halo est d'autant plus
grand. Selon plusieurs sources dont
celle-ci,
certains halos indirectement mesurés dépassent
les 400 000 années lumières. D'autres sources parlent
d'un million d'années-lumière. Si on considère
qu'il ne reste que 10% des galaxies visibles primordiales, le calcul
montre que les 10
12 BECs restants occupent tout le volume de
l'univers avec un taux d'emboitement positif. On notera que
le rapprochement entre halo galactique et Condensat de Bose
Einstein fait son chemin (voir ce lien
ARXIV de 2012 alors que le modèle OSCAR parle de cela depuis des années !!
Modèle
OSCAR = MOND + Standard
ou
Matière Noire + effet BEC
OSCAR Model = MOND + Standard
La théorie MOND ajoute une
constante très faible, de la dimension d'une
accélération, à la
relation de Newton. On peut la résumer par la relation suivante
qui ajoute un (faible) terme constant d'accélération :

Cette constante, de l'ordre de
10-10 m/s², devient prédominante pour de grandes
distances (rayon galactique) et passe inaperçue à notre échelle courante.
La théorie MOND s'appuie également sur l'observation concernant
l'anomalie de Pioneer 10 qui se traduit par un gamma de cet ordre.
La théorie MOND n'a pas plus de
prémisses fondatrices que le modèle standard. Un débat
est engagé entre physiciens dans le cadre des galaxies
naines
gravitant autour de la galaxie d'Andromède à une distance
où la
gravitation est trop faible pour l'expliquer. La matière noire
étant
de faible densité dans la galaxie visible. Ainsi un gamma faible
et
constant expliquerait bien ce comportement. Le débat
présente MOND comme une alternative à la
matière noire. En fait la réponse n'est pas de type
booléen "ou" mais de type "et".
Le modèle OSCAR introduit
également un gamma constant de cet ordre, non pas
opportunément mais contraint
par son modèle de BECs
cosmologiques formant halo. On note que l'idée a été reprise par Ben KAIN dans ARXIV
en 2010 et par des dizaines d'autres sources qui approchent cette
idée depuis des années mais d'une manière
parcellaire (hors du cadre d'un modèle complet d'univers
à partir de prémisses fondatrices). Ainsi, la
matière noire (totalement
expliquée dans le modèle OSCAR) est
maintenue dans le halo par ce gamma pour créer une plus grande
densité aux limites du halo. C'est d'ailleurs ce qui
explique la précocité de
formation des étoiles, chacune dans son
« BEC-matrice ». Ainsi,
la matière noire se tient surtout dans les limites externes du
halo
et très peu dans la petite partie visible de la galaxie.
Donc, ce n'est ni MOND ni STANDARD
mais OSCAR qui explique cela avec toute la précision requise. Voir
le site de Françoise
Combes
de l'Observatoire de Paris, qui postule que la Voie Lactée
et Andromède soient entrées en collision dans le
passé. Elle
suggère que le mode de collision soit de type oscillant (rebonds
successifs). Cette idée est intéressante car elle rejoint
l'idée
défendue ici, à savoir que le régime de collisions
(dans le
passé), n'est pas une exception mais une règle
très robuste. Le modèle OSCAR est cohérent
avec l'idée que ces galaxies naines sont en fait des galaxies
noires (issues des collisions) ayant conservé une partie visible encore plus
faible que celle des galaxies classiques. Ainsi leurs halos sont
très étendus (2 millions
d'années-lumière) et croisent le halo central
d'Andromède. Ces galaxies naines sont :
1/
la matérialisation contemporaine des produits de collisions passées
et donc de l'annihilation induite (voir statut des fermions non
locaux)
2/
un état intermédiaire entre les galaxies dites "visibles"
(en fait 15% de la masse totale) et les galaxies noires
spatialement très étendues.
Les
galaxies dîtes "naines" sont en fait de taille normale
mais sont très majoritairement invisibles et donc assez
spatialement étendues. (1 à 2 millions
d'années-lumière).
Estimation des grandes familles de galaxies et de leur halo respectif
types galaxies |
rayon halo
106 années-lumière |
% du total |
nombre typique
de galaxies |
volume
(années-lumières)3 |
gamma
BEC |
rayon visible |
classique |
0,2 |
5 |
5.1010 |
1027 |
100% |
0,05 |
naine |
2 |
15 |
1011 |
2.1030 |
10% |
0,01 |
noire |
9 |
80 |
8.1011 |
3.1033 |
2% |
- |
Le volume cumulé des halos de galaxies noires est logiquement plus grand (enchevêtrement) que celui de l'univers (2.1033) pour R(t) = 5.7 fois RH.
On voit que le gamma centripète typique du champ
scalaire du réseau de boson-tachyons formant BEC (cosmologique), est
environ 50 fois plus faible pour la masse noire. Cela est
cohérent avec les prémisses fondatrices du modèle
qui considèrent la matière noire comme des baryons
dégénérés (voir statut des fermions non
locaux) ayant un faible rapport harmonique avec le champ subquantique.
Entre autres, les émissions spontanées (changement de
niveau orbital) ne se manifestent plus (raie de 21 cm). Il faut
noter que les intervalles (galaxies noires) entre les filaments de
galaxies (visibles)
de la voûte céleste, ont effectivement un rapport d'environ
(106)1/3 = 100.
La galaxie d'Andromède, située à
2,5 millions d'années-lumière, est donc liée
à la Voie Lactée par l'emboitement des halos des
galaxies naines orbitales. Ainsi l'idée de Françoise
Combes est renforcée par le fait que l'interaction des halos,
augmente en phériphérie des halos. Cela s'explique par ce
qui est décrit plus haut, à savoir que la densité
de matière noire augmente en périphérie des
halos enchevêtrés ou emboités. Selon ce
schéma, si on pouvait voir l'emboitement des halos on verrait
que l'ensemble forme un dipôle oscillant. Ainsi la période
basée sur l'interaction gravitationnelle, serait raccourcie
par l'interaction réciproque des BECs formant halos enchevêtrés et
renforcerait ainsi l'hypothèse de Françoise Combes.
La naissance des galaxies
Un peu d'histoire :
Conclusion :
les modèles antérieurs à 2011 ne se basent pas sur des prémisses
fondatrices complètes. Ils ne tiennent pas longtemps car les
« petites idées » fragmentaires n'ont aucune chance
d'expliquer l'objet univers dans son ensemble. Les prédicats des
prémisses fondatrices du modèle OSCAR, sont fondés sur 33
observables parmi les plus fondamentaux. Ils résolvent les plus
grandes énigmes en une seule et unique hypothèse.
Cette hypothèse [1] est juste
l'idée que la création originelle de matière (électron-positrons)
vient d'une fusion aléatoire des points zéro d'un échantillon
d'oscillateurs du « rien ». En fait, on démontre [2]
que pour justifier une origine sans constante que l'hypothèse [1]
n'a pas d'autres alternative que la voie métaphysique qui est ici
rejetée.
Cette fusion d'oscillateurs-bosons
suit la loi de synchronisation de Huygens. Cela revient à un brusque
refroidissement (enthalpie) qui engendre naturellement un premier
condensat de Bose Einstein. Ce BEC, forcément instable se divise en
N BEC-fils.
A cette mitose est associée une
séparation causale des oscillateurs formant un front
d'onde sphérique avec une distribution homogène [3] {+, ‒,
+, ‒} dont les éléments
voisins ne peuvent s'annihiler et se comportent donc
localement comme des bosons.
Par définition, la mitose suit la
loi de Fibonacci qui amène au pentagone de Sierpiński déterminé
avec le nombre d'or. La figure fractale est contrainte de créer une
expansion qui se décrit comme un tenseur des vitesses. Les
collisions précoces sont contraintes par le modèle.
On a d'un coup la réponse aux
énigmes suivantes :
1/ La structure fractale de
l'univers en étoile-galaxie-amas est expliquée par le fait que les
BEC-fils sont des moules d'accrétion rapide.
2/ la séparation causale
généralisée est la source du champ gravitationnel. Le modèle le
démontre avec précision.
3/ l'intervalle élémentaire
quantiques suit, par définition, le nombre de mitose.
4/ la matière noire découle
directement des collisions dont la fréquence est fonction de la
précocité.
5/ l'accélération apparente de
l'expansion qui dépend directement de la distribution fractale.
Il m'arrive d'expliquer longuement
que la vraie rigueur consiste en un feed
back complet et permanent entre toutes les
observables et surtout les « non locales » et je suis
parfois désolé d'entendre en retour :
« mais comment puis-je le
vérifier dans mon laboratoire ? » .....
[1], [2], [3]
Signification physique de la longueur de Planck
Condensation du proton sur la première couche d'électron-positrons tout juste formés
Il
y a compétition entre l'écartement des intervalles (mitose + trous
d'annihilation) et la condensation du proton. Pour cette première
couche du BEC primordial, on a en 2D :
trous
d'annihilation (α12)
x
taux d'écartement par mitose (ξ2)
Le
proton constitué en couches concentriques (onde sphérique) a la
curieuse particularité de présenter le même nombre d'éléments en
3D, 2D ou 1D. Ainsi le ratio 1D entre le rayon de Compton pour un
seul électron et un des 4 groupes de 460 éléments (rayon du
proton) est strictement le même que celui qui est collecté pour
condensation, sur la sphère (2D) de la première couche du BEC-0.
Avec
τp
= 458,81 dont l'arrondi en terme de paire entière (460), donne précisément
le ratio entre la longueur de Compton pour un électron et celle du
proton (relation 9).
Les relations (7
et 8)
montrent le ratio entre la longueur de Planck et la longueur
élémentaire et le rayon du proton.
Ainsi
la définition physique de la longueur de Planck est la suivante :
c'est l'intervalle fossile projeté sur la sphère de la première
couche du BEC-0 avant les phases {mitose + annihilation +
condensation en proton}. La (7)
montre cependant que c'est au facteur √τ
près, soit 21,42.
En
revanche, la taille transversale et l'intervalle fossile du boson
subquantique sont strictement égaux et sont ξ
fois plus grand que la longueur de Planck (1D). C'est la raison pour
laquelle le taux de mitose (fonction 2D) est de ξ2
(nombre de BEC-fils ou nombre d'étoiles primordiales). On rappelle que ξ = 1,5.1011.

Tableau récapitulatif des états avant les 6 étapes de mitose et annihilation
et après. On rappelle que ξ = 1,5.1011 et qu'il représente la seule signature de cet univers
dans son état quantique. Il faut noter que sans mitose et sans annihilation en étapes fractales,
le proton comporterait ξ4 paires électron-positrons. Cela explique très bien l'énigme de la rupture
de continuité entre les masses {galaxie, étoiles} et le proton. Par rapport à la masse de ce
proton imaginaire (1017 kg), la continuité entre les structures : galaxie ~ 1041 kg ; étoile ~ 1030 kg,
serait à peu près assurée.
Cet article est une grande avancée du modèle OSCAR dans
la mesure où il établit une signification physique
à la fois à la longueur de Planck historique et
également à celle, ξ
fois plus élevée, correspondant à la taille de
l'état corpusculaire de l'électron ou de la taille
transversale du boson subquantique. Sans l'annihilation fractale et la
mitose, le proton serait un véritable trou noir.
L'univers résumé en cinq étapes
the universe resume in five steps
Ci-dessus
1/ Le premier BEC est instable car l'intervalle élémentaire est trop faible
pour une densité d'équilibre selon la loi connue qui régit un BEC.
2/ Il se divise (mitose) en autant de BECs-fils nécessaires pour que l'intervalle
élémentaire devienne isotrope (radial => tangentiel).
Dans le même temps, survient une séparation causale des éléments de la première couche car
il y a superposition tangentielle des sites. Les charges se masquent et donc s 'annulent. Donc le lien
causal individuel disparait au profit d'un gradient commun de charge (gravitation).
Les masses s'additionnent et l'univers forme un immense oscillateur. Le ratio ( ξ4) est justement le ratio
(mesuré) entre un électron et un positron. La gravitation est donc le gradient du lien causal d'origine qui
garantit une somme nulle globale d'énergie (voir synchronisation-refroidissement-enthalpie).
Ci-dessous
3/ Les BECs enchevêtrés sont en expansion. Selon le modèle et les observations, les
nombreuses collisions précoces transforment la matière visible en matière noire (DM).
Les baryons dégénérés ont un faible taux d'interaction avec le niveau subquantique
et les émissions spontanées cessent (cause de la DM, raie de 21 cm). L'expansion n'étire pas l'espace
mais fait baisser le taux d'enchevêtrement. Cela conserve l'intervalle élémentaire qui règle la célérité c
et la relativité générale.

4/Seulement 5% des galaxies ne sont pas noires et présentent un taux d'enchevêtrement
plus fort qui forme un halo qui retient (faiblement) la DM (observé).
5/ La relation d'Eddington (de même poids que la longueur de Planck), indique précisément
le rayon maximum que peut prendre l'univers avant que les
BECs perdent leurs interactions réciproques.
Il forme alors une couche unique ultime, formant coque.
Le flou du point zéro stochastique
the blur of zero stochastic
Le
modèle OSCAR part de prémisses fondatrices qui s'articulent sur la
notion robuste de dualité. Ainsi l'univers (qui contient tout),
traduit également sa dualité par deux états qui oscillent entre
eux: l'état quantique comprenant des constantes et l'état
stochastique. Le second état est nommé également pré-quantique.
On a montré que l'unicité statique était à rejetée au profit de
la fluctuation duale. Ainsi l'état stochastique est contraint d'être
sous la forme d'oscillateurs duaux 1D stochastiques de somme
strictement nulle. Cet oscillateur est de genre boson de masse nulle.
Il comporte deux composantes de signes contraires, les tachyons.
L'oscillation stochastique du « rien » comporte deux
types de zéro : a) le zéro issu de la sommation algébrique
des deux tachyons ; b) le « point zéro » qui
représente l'axe dual. Le principe de démarcation est appliqué et
donc toutes solutions dont le résultat n'est pas strictement nul est
rejeté. Cependant le « point zéro » devrait s'appeler
le « zéro flou » car il ne saurait être un point. La
notion de « point » en physique est impropre car elle
appelle des paramètres physiques infinis. Le seul infini acceptable
est celui du champ des probabilités.
1.
Rappel des prémisses fondatrices
Les
seules prémisses valables pour l'univers s'appuient sur 5
principes :
-
le
principe de dualité,
-
le
principe de démarcation
-
le
principe d'action nulle,
-
le
principe d'incommensurabilité,
-
le
principe du rasoir d'Occam.
2.
L'oscillateur duel stochastique
On
a vu [9] que dans le référentiel du boson duel oscillant, la masse
était nulle. En revanche, dans le référentiel des tachyons (l'un
annulant l'autre) on avait une variation de masse. En tout point de
l'amplitude stochastique, la somme est toujours strictement nulle. La
variation de masse est régit par une fonction linéaire qui suit
l'amplitude spatiale 1D. Elle est maximale au point de rebroussement.
Elle serait nulle si le « point zéro » était un point.
Nous défendons ici l'idée que le point zéro est flou et qu'il a
donc une taille non nulle. Elle est donc variable à chaque cycle
pour respecter l'idée maîtresse qu'il n'existe aucune constante
pré-établie. On a vu que la seule loi pré-établie admissible est
celle de la conservation de l'action nulle.
3.
Le flou stochastique du point zéro
La
notion de flou s'applique non pas pour essayer de justifier une
quelconque violation de la loi de symétrie. Le flou se manifeste
dans la symétrie duale et il ne déroge donc pas à la règle
générale. Autant on peut admettre une sommation strictement égale
à zéro, autant on doit rejeter l'idée d'introduire la notion
mathématique abstraite de zéro parfait absolu. La raison en est
qu'un tel zéro induit une célérité infinie qui ne peut être
compatible avec la conservation du lien causal réciproque qui est le
garant de l'action nulle dans le référentiel boson. Donc le zéro
n'est ni absolu ni asymétrique.
Une
façon de raisonner sur les limites floues du « point zéro »
est de considérer que les deux tachyons soient en superposition lors
de leur croisement dans l'axe du boson. La fonction [9] montre que la
variation du temps est en avance (1/r²) sur l'amplitude [L]. Cela
veut dire que le croisement effectif se fait sans écoulement du
temps. Ainsi, la superposition exacte n'est pas possible car sans Δt,
les tachyons (fantomatiques) sont à la fois devant et derrière cet
axe absolu. Cet écart spatial correspond au rayon corpusculaire du
tachyon. C'est une sorte d'application stochastique de l'exclusion de
Pauli mais pour d'autres raisons.
4.
Par quoi l'infini se
traduit-il ?
Le
non écoulement du temps dans cette zone flou, ouvre le champ
statistique des comportements physiques. Si les paramètres
physiques ne peuvent atteindre l'infini, les possibilités de valeurs
initiales du cycle à suivre, deviennent infinies. C'est la vraie
définition de l'oscillateur stochastique. Son comportement purement
aléatoire, vient justement du fait que le temps est presque figé
dans le flou du zéro. La simple notion d'avance suffit à expliquer
cela. Alors on pourrait dire que cela est un artefact pour expliquer
l'aspect loterie du zéro. Il y a au moins deux raisons pour monter
que ce n'est pas le cas.
Tout
d'abord la fonction [9] est la seule qui permettent d'éviter les
infinis de genre physique. Ensuite, on montre que cette fonction
reste la clé pour expliquer (qui est mieux qu'une description) le
fonctionnement des oscillateurs dans les BECs de notre univers
mesurable. Enfin cette fonction simple est en accord avec les travaux
de la théorie des distributions de Schwartz sur la dualité du zéro
de Dirac [9].

Il
existe deux types de zéro dans l'oscillateur dual stochastique.
Celui qui est donné par la somme algébrique duale en tout point de
l'amplitude ; celui qui transforme les infinis physiques en
infini de nature probabiliste. La définition du zéro fluctuant
« pas tout à fait à zéro » est totalement injustifiée.
Il est à ranger au placard des énormités telle que :
-
point
zéro corpusculaire (avec artefact mathématique pour supprimer les
infinis)
-
la
violation de symétrie matière-antimatière « pas tout à
fait symétrique.. »
-
le
principe cosmologique qui ignore toutes les finesses de la non
localité.
Le
boson est toujours la somme de deux fermions. Il manque une
formulation lexicale pour nommer l'ensemble de l'univers composé de
ses deux états {pré-quantique + quantique}. Nous dirons que le
boson-univers est globalement d'énergie nulle.
La formation des galaxies
the formation of galaxies
Le
modèle standard bute sur les causes de la formation des
galaxies. Avant d'avoir constaté la haute fréquence des
collisions précoces, on a commencé par inventer le
modèle hiéararchique. Pourquoi ? Tout simplement parce
que le temps de formation d'une galaxie (de taille normale) avec
l'action de la seule gravitation était supérieur
au milliard d'années. Or on observe des galaxies qui
ont à
peine 300 millions d'années. Alors on a décidé
qu'elle ne pouvaient être que petites. Las, les moyens
d'observations, toujours plus performants, indiquent qu'il existe
également des grandes galaxies précoces. Alors on a
inventé la fusion par collision. Les collisions devant aider
à accélérer l'accrétion. Mais les
observations sont tenaces, cela ne tient pas. On vient d'inventer les courants froids
(magiques). Ce nouveau paradigme n'explique évidemment pas
d'où viennent ces courants froids. Le modèle standard n'a
toujours pas de véritables prémissses fondatrices.
On constate l'organisation de structures en filament et on l'utilise,
sans la justifier, à grand renfort de modèle
informatique. Toujours ce manque crucial de prémisses
fondatrices. L'informatique applique bêtement les
données et il suffit d'ajuster à la main les
paramètres pour que cela marche. La
réfutabilité devient accrobatique.
Les points essentiels des observations (qui collent tous avec le modèle OSCAR), sont les suivants :
01/ la fréquence des collisions précoces est énorme. (c'est une contrainte de la mitose fractale),
02/ les galaxies primordiales sont grandes et formées rapidement,
03/ elles se forment en 300 millions d'années,
04/ les collisions produisent de la matière noire, en abondance,
05/ les galaxies naines ont beaucoup de matière noire,
06/ leur halo peut être 5 fois plus étendu que les galaxies "normales",
07/ l'intensité des sursauts gamma augmente avec la distance,
08/ Les galaxies éjectent de la matière en leur centre,
09/ une recrudescence des formations de galaxie/étoiles vers 1 milliard d'années,
10/ la température du centre des ammas quia un lien avec leur taille.
Se
sont les BECs (formant halo) qui régentent l'ensemble de
l'univers. Ces BECs sont fait d'un réseau de tachyons qui
régente la masse baryonique. La masse noire (baryons
dégénérés) possède donc un faible
taux d'intercation avec les BECs, ce qui explique leur grande
étendue (enchevêtrement moins dense).
Voici
un résumé de l'évolution des galaxies qui est la
stricte application des prémisses du modèle OSCAR.
Ce scénario est conforme
à ce que l'on observe. Les
températures mesurées dans les amas sont
également
liées à l'angle des collisions (fonction de la
taille de l'amas). Les moyens
futurs d'observation devraient confirmer que les étoiles
primordiales sont grandes, précoces et donc de courte
durée de vie. Le
scénario est en accord avec l'observation qui constate une
recrudescence de formation d'étoiles de seconde
génération, autour du milliard
d'années. Il suffit de faire : 300 (1ere
génération) + 300 (durée de vie) + 300
(seconde génération) = 900 milliards
d'années. C'est bien ce que l'on observe.
L'éclatement par les collisions de galaxies peut retarder
la seconde génération de quelques centaines de milliards
d'années. Le scénario des courants froids porte en
lui, les mêmes frasques que les précédents ; une
vue fragmentaire qui n'explique pas les 10 points liés à
ce problème.
A suivre...
L'énigme des filaments de galaxies
the enigma of filaments of galaxies
A
une certaines échelle, l'univers est structuré en
filaments. Ce n'est ni l'action d'on ne sait quel courant froid, ni du
au hasard. Le modèle OSCAR est basé sur
l'enchevêtrement de condensats de Bose Einstein (BEC). Ces
derniers forment halo autour des galaxies (en fait leur partie
visible). Mais le taux d'enchevêtrement est contraint
par le taux d'interaction {matière-BEC}. Ce taux est
maximum quand la matière est dense et visible. Il est minimum
quand la matière est ténue et noire. On rappelle que cela
découle des prémisses fondatrices du modèle. Le
réseau de tachyons formant BEC est perturbé par la
présence baryonique. Aux limites, des BECs vides seraient libres
entre eux. Cependant, ce cas limite ne peut exister car la mitose des
BECs s'est faite dans les nuages d'hydrogène primitif.

Le
tableau suivant donne les taux d'enchevêtrement de BECs en
fonction du type de matière baryonique et de sa densité.

Ainsi on peut assimiler ces taux d'interaction entre BECs à des modules d'élasticité.
On peut comprendre que les galaxies serrées au
départ, forment des filaments qui regroupent les forts
modules d'élasticité entre eux. C'est comme un filet
élastique dont une majorité de mailles auraient
été dégénérées. Les mailles
de fort module résistent à l'expansion au
détriment des autres. Elles forment des lignes de
fractures. Les galaxies (majoritaires) qui ont succombé
aux collisions précoces, sont devenues des lambeaux de galaxies
(noire + visible) ou carrément des galaxies noires. Les galaxies
naines satellites sont bien observées autour des galaxies
visibles. L'univers est rangé selon le module
d'élasticité des BECs. Il suffit de regarder à
l'oeil nu pour voir les grands espaces noirs entre les galaxies.
L'expansion fait glisser radialement les halos noirs entre eux. Les
halos des galaxies visibles ne subissent pas l'expansion. Le
modèle OSCAR montre (c'est observé avec Pioneer 10)
que la vitesse de glissement augmente linéairement le module
d'élasticité. Ainsi les BECs (noirs) viennent s'ajouter
à l'action de la gravitation.

Les signes trahissant le
taux d'interaction (matière-tachyons) à
l'échelle quantique, sont principalement : a) l'anomalie du
moment magnétique ; b) les particules virtuelles. De plus on a
mesuré la décélération de la sonde
Pioneer 10 qui trahit également l'interaction
BEC-matière et donc BEC-BEC. Il faut se rappeler que le BEC est
à la fois à l'échelle quantique et cosmologique.
Il est la longueur de Compton d'un tachyon. Il régit la longueur
de Compton de l'électron et du proton (ou neutron).
Le statut du fermion relatif est confirmé
par la température des amas
Fermion relative status confirmed by cluster temperature
On
observe depuis plusieurs décennies,
que l'univers est organisé en filaments galactiques. Il forme une
« mousse » incluant des espaces noirs qui apparaissent vides. Aux
nœuds de ces filaments se forment des superamas de galaxies qui
sont séparés par un intervalle moyen de l'ordre de: Im
= 350
millions d'années-lumière.
Le modèle OSCAR montre que les
filaments matérialisent
les réseaux
à fort taux
d'interaction {BEC-BEC}
[1,
2, 3, 4, 5, 6, 7, 8, 9,
10, 11, 12,
13, 14]. Ces
forts taux sont ceux de la matière visible.

2.
Le statut des fermion-bosons
relatifs
Le
modèle OSCAR part d'une expérience de pensée qui change
radicalement le statut des fermions lorsqu'ils sont créés à grande
échelle. Le modèle est complètement cohérent avec un Big Bang
matérialisé par l'explosion du premier BEC issu de la condensation
des boson-tachyon-oscillateurs. L'extension brutale et synchrone de
la première couche sphérique de tachyons (+/-), marque le début de
la mitose fractale. Mais cette première couche est saturée car les
intervalles se recouvrent. A l'extension des oscillateurs, cela
contraint une séparation causale généralisée. Ainsi la
masse des deux tachyons en opposition dans chaque paire, continue à
augmenter jusqu'à ce qu'elle devienne la masse de l'électron ou du
positron. Pour raison de conservation de quantité de mouvement, la
célérité chute à c, qui est la vitesse d'expansion, qui se
cumule vectoriellement, à chacune des phases (homothéties
fractales) de la mitose.

Le
schéma montre que les règles de l'annihilation sont différentes de
celles du laboratoire (localité). Les paires voisines de signes
opposées, ne s'annihilent pratiquement pas. Chaque tachyon porte un
gradient d'énergie d'annihilation qui dépend du nombre présent sur
la demi-circonférence. Les électron-positrons voisins se
comportent donc comme des quasi-bosons. Ils diffèrent totalement de
ceux qui sont créés localement. Ainsi le modèle est cohérent
avec des proton-neutrons constitués de ces bosons relatifs. De
nombreuse prédictions sont données et sont toutes vérifiées par
la mesure. Ainsi les particules élémentaires formant les baryons
stables, sont des paires d'électron-positron. La paire
proton-antiproton créée localement, est un croisement de paires
d'électron-positrons. La symétrie locale ne représente en rien
celle de l'univers. L'énergie élémentaire lors de la séparation
causale est strictement celle de la paire électron-positron.
L'univers primordial a fixé la parité au niveau des paires
électron-positrons et non pas au niveau des protons. Ainsi
l'ensemble {neutron + proton + électron libre} vaut 3684 en unité
{électron nu} ou 2 fois 1838 en unité {électron habillé}, mesuré.
Il est donc naïf de chercher où sont les anti-protons car il n'y
en a pas. L'antimatière n'est pas une notion binaire (0 ou 1) mais
une continuité analogique. Le proton est toujours positif (positron)
car la polarisation avec le « vide » (subquantique) est
fixée aléatoirement dans ce sens, tout simplement. La création
locale oblige une symétrie (locale) mais ne représente en rien, la
règle générale.
Il
faut rappeler ici que l'atome de soufre émet des positrons de
création locale. Les électrons, formant la paire, restent confinés
dans l'atome). C'est la raison pour laquelle le positron s'annihile
avec le premier électron rencontré. Le modèle montre également
que sa durée de vie (ortho-positronium), ne suit pas les règles
attendues car ce n'est « pas le bon électron ». Le
« bon » électron est celui qui est confiné dans l'atome
de soufre. Tout se passe comme si l'expérimentation locale voulait
induire le chercheur dans l'erreur.
3.
Angle d'annihilation entre
deux étoiles d'une même galaxie
Le
modèle est en accord avec l'estimation standard du nombre de BECs
(ou d'étoiles) est de : ξ²
= 1022.
Donc le nombre de BECs sur une demi-circonférence de la première
couche du premier BEC est donc de: ξ= 1011.
Ainsi le taux d'annihilation des électron-positrons contenus
dans une étoile typique est donc de l'inverse soit 10-11. Ce taux est négligeable.
4.
Angle
d'annihilation
dans une galaxie
Le
modèle est en accord avec
l'estimation standard du nombre de galaxies, soit : ξ
= 1011.
Donc le taux (négligeable) d'annihilation potentiel est égale à sa racine carrée soit 10-5.
5.
Ratio
entre intervalle et angle originel du
BEC primordial
Les
cosmologistes ont l'habitude d'exprimer une distance entre deux
objets, en fonction de l'angle vu par l'observateur. Ici, nous
devons déterminer l'angle relatif entre deux points de
l'intervalle moyen Im = 350 M.l.y.
On comprend que si l'angle
est π,
le taux d'annihilation serait unitaire. Pour tout angle quelconque,
φ, on aura un courbe linéaire du taux d'annihilation (de 0 à 1). Cela
sera comparé avec la température élémentaire de l'univers qui
vient de la grande annihilation des électron-positrons issus de la déflation des
tachyons séparés,
soit: Te =
5,96.109
K.
6.
Rappel
des contraintes du modèle
Pour
aller plus loin, il faut rappeler l'aspect géométrique du modèle
Oscar. Il est contraint par une géométrie euclidienne à symétrie
sphérique. L'univers est dual et possède deux états (stochastique
sans espace-temps-masse et n'a
pas de centre) et l'état
quantique que nous
connaissons. L'état
quantique est né du BEC-0 instable de 150 000 années-lumière de
rayon et non pas d'une naïve
« tête d'épingle ». Il n'est pas né d'une inflation
mais d'une déflation de vitesse des oscillateurs nouvellement synchronisés. Il a donc un centre. Ce centre est
observé depuis plus de dix ans, dans la direction de l'Eridan. Ce
« point froid » a une taille d'un milliard
années-lumière. Il a donc
grossi d'un facteur 3000.
Le mode fractal du modèle explique pourquoi les collisions précoces
produisent de la matière noire. Les deux conditions sont :
-
le processus fractal produit un champ de vecteurs de vitesse qui
favorise les collisions précoces
-
les corps en collisions ont un angle non négligeable qui produit des
annihilations partielles qui dégénèrent les baryons. La raie de 21
cm disparaît et ils ne sont
plus visibles.
Les
couches en retard sont contraintes d'accélérer pour tendre vers une
expansion moyenne. Ainsi le modèle montre que l'isotropie
observationnelle est quasi conservée à des distances éloignées du
centre. Le modèle dit que la couche où réside la Voie Lactée
(donc nous) possède une expansion faible d'environ v = 0,5
c. Les couches les plus en retard sont proches du BEC-0 fossile.
Cette zone est donc contrainte d'être en forte accélération. C'est
bien ce qui est observé à 7 milliards d'année-lumière.
Ainsi pour un âge de 13,8 milliards d'années, le
centre de l'univers est à : R(t) ~ 7 milliards
d'années-lumière. Le rayon total de l'univers est d'environ Rt =78
milliards d'années-lumières (45 G.l.y pour l'univers visible en accord avec le modèle standard). L'argument est basé
sur le nombre de photons initiaux. Il se recoupe parfaitement avec le
fait les 6 homothéties fractales qui cumulent vectoriellement 6
phases à vitesse c, soit: vm = 6 c. On
retrouve bien Rm/R(t) (v/c) = 5,8 < 6. Cela indique que les
couches en avance ont commencé à ralentir. Cela est compensée par
une accélération des couches en retard. La température nominale
d'annihilation est celle de l'électron soit : Te = 5960.106
K.
7.
Comparaison
avec les
températures
observées
Le
tableau suivant compare
quelques températures observées
à différentes échelles,
pour des distance au
centre, comparables à la nôtre avec :
Tamas = Te Im / πR(t) = 100 millions K

On
note que l'angle des superamas correspond à celui des fluctuations
détectées par le satellite Planck, sur le CMB [15] soit environ
6°. L'intervalle typique des amas est de l'ordre de 100
M.l.y. Dans tous les cas il doit exister une seconde
composante liée aux croisements internes. C'est la raison pour
laquelle, certains amas sont en forme de coquille car le centre est
majoritairement de la matière noire (DM). La DM peut déclencher la
condensation d'une galaxie visible, au centre.
9.
Conclusions
Le
statut
des fermions relatifs explique directement 9
énigmes fondamentales :
-
l'origine
de l'expansion,
-
l'énigme
de l'antimatière,
-
la
masse des proton-neutrons,
-
l'origine
de la gravitation, induite par la séparation causale,
-
les
collisions précoces de galaxie,
-
la
matière noire (baryons dégénérés) issue des collisions,
-
l'accélération
de l'expansion (qui n'est qu'une vue tronquée de l'ensemble qui
ralentit),
-
les
températures élevées des structures cosmiques à toutes échelles,
-
l'immense
« trou froid » détecté en direction de l'Eridan.
Il
est vérifié par :
-
Le
rayon précis du proton qui en découle,
-
La
masse autonome du proton
-
le
ratio entre le champ coulombien et gravitationnel pour une paire
électron-positron,
-
la
température élevée de la couronne solaire,
-
la
température élevée du centre galactique,
-
la
température élevée des amas et superamas de galaxies,
-
l'angle
élémentaire de fluctuation de CMB,
-
le
calcul de l'anomalie du moment magnétique de l'électron,
-
l'accélération
mesurée des corps situés autour du « point froid ».
Toute
la physique repose sur une rigueur expérimentale qui apparaît
fouillée mais qui ne l'est pas. L'étude de l'objet univers ne peut
se faire dans le cadre réductionniste et fragmentaire. Toutes les
expériences de laboratoire doivent être passées au crible de la
réfutation à grande échelle.
A
l'heure où la technologie nous donne les moyens d'explorer l'univers
lointain, il convient de nous armer de cette nouvelle rigueur. Il
faut repenser systématiquement la portée non locale, des
expériences locales. Il faut abandonner le principe cosmologique car
c'est un faux ami. Il faut prendre conscience que le réductionnisme
est une impasse pour relever le défi de comprendre l'univers dans
son ensemble.
10.
References
Merci au satellite Planck
Les équipes du satellite
Planck viennent de rendre une partie de leur rapport. Un point est
particulièrement intéressant car il confirme ce que dit
le modèle Oscar depuis des années. L'univers est
anisotrope !
Voici un extrait traduit d'un article paru dans Physics-World :
"".....les fluctuations de la température du CMB à grandes échelles
angulaires ne correspondent pas à celles prédites par le modèle
standard, en plus d'une asymétrie dans les températures moyennes sur des
hémisphères opposés du ciel. Ces écarts ont été devinés par WMAP, mais
ont été largement ignorés en raison des doutes sur leur
origine..../....Une explication possible à cela est que l'univers n'est
pas le même dans toutes les directions sur une plus grande échelle que
nous pouvons observer..../... Joanna Dunkley de l'Université d'Oxford,
dit que les anomalies à grande échelle angulaires sont «alléchantes» et
pourraient pointer vers une nouvelle physique.....".
Cela ressemble fort aux contraintes de mon modèle oscar. La géométrie à
symétrie sphérique dans laquelle nous sommes placés non pas au centre
mais à 7 Gly du BEC primordial ! Ce centre est d'ailleurs observé
depuis 2004 sous forme d'un "spot froid", de 1 Gly de diamètre. Il aura
grossi d'un facteur 3000 en 13,8 Gly ! Sa vitesse moyenne d'expansion
est de 0,07 c. Cette géométrie est contrainte d'être à gradient de
vitesse. C'est le fractal originel (champ de résultantes radiales de
vitesses) qui crée un tenseur des vitesses d'expansion. La couche qui
nous porte a une expansion à 7/13,8 = 0,5 c. D'un côté on voit le
CMB à +delta c= 1,5 c. Et de l'autre (derrière le spot-froid-BEC) à
-delta c = -0,5 c. En accord avec le modèle standard, l'univers observable est à
45 Gly et l'écart brut est de 0,5/45 = 10%.
Cela donne :
- rayon de notre position, R(t) = 6, 5 Gly (mesure spot froid)
- limite temporelle (rayon Hubble) = 13.8 Gly (mesure + logique oscar)
- rayon observable (avec le décalage) = 45 Gly (logique)
- global (oscar connait le nombre de photons originels) = 78 Gly
On voit que chacune des 6 étapes (homothéties fractales) éjecte
l'ensemble BEC+ matière, à la célérité c. La fraction la plus en avance
a donc une expansion de 6c. Les arguments "photons" disent que les
couches en avance ont commencé à ralentir. Cela induit naturellement
l'accélération des couches en retard qui sont observables ! Donc pas de
mystérieuse énergie noire car globalement l'expansion ralentit !
On a donc :
- Matière visible 4.5 %
- Matière noire 95.5 %, surtout fabriquée dans les collisions précoces (statut des fermions relatifs).
C'est la DM+BEC qui matérialise l'espace intersidéral dont le volume est largement majoritaire.
La grande naïveté est de contrer la symétrie sphérique en disant : "la
symétrie sphérique réclame que nous soyons au centre". Non et non !!!
Car sans être au centre, la dynamique en couches de vitesses (gradient
des vitesses) apporte une quasi isotropie observationnelle. C'est
certainement le "quasi" qui a été mis en valeur par le satellite Planck.
L'univers possède 4 tailles caractéristiques. En rouge, la couche à laquelle la Galaxie appartient.
Ensuite, dans l'ordre, l'horizon cosmologique caractérisé
par un Δv = c ; l'univers observable et enfin, la taille
globale Rm(t) en décroissance par symétrie à l'accélération des couches en retard.
Il reste à
vérifier que l'anisotropie forme bien un dipôle dans l'axe
: Eridant-Grand Attracteur. Au moins trois échelles sont
structurées en couches :
- le proton,
- le BEC,
- L'Univers.

Regain d'intérêt pour les étoiles noires prédites par le modèle OSCAR
Une équipe composée Paolo Gondolo, un chercheur de l’Université de l’Utath et ses collègues, dont
Katherine Freese
de l’ Université du Michigan (Ann Arbor), Douglas Spolyar de
l'Université de Californie (Santa Cruz) viennent de publier sur la
possible formation d’étoiles noires
géantes primordiales en 100 millions d'années. Selon
l'ancien dogme, seules des fluctuations gravitationnelles ont pu
former les étoiles. Cependant la seule action gravitationnelle
implique plutôt un milliard d'années ! Mais l'observation
est tenace car elle confirme la formation des premières
étoiles en moins de 200 millions d'années.
Alors on utilise PAR DEFAUT la matière noire pour "expli
quer"
la précocité observée. En fait on explique rien du
tout car on "sort du chapeau" la condensation pré-établie
de DM. Déjà que l'on "explique" PAR DEFAUT les
fluctations d'un monde pré-qauntique en utilisant les règles du
monde quantique.
Ce qui est intéressant, c'est ce regain d'intérêt
pour les programmes d'observation. Le modèle OSCAR montre qu'avec le gamma d'un BEC (g = 10-10 m/s²),
une étoile est formée dans le temps observé
(150-200 millions d'années). Ce gamma est justifié dans
le modèle et observé avec la sonde Pioneer 11. Sa
constance le rend 106 fois plus fort que la gravitation (en 1/r²), calculée aux limites (R = 1021 m) du BEC concerné.
Les observations montrent de mieux en mieux les points suivants, contraints par le modèle OSCAR :
1/ haute fréquence des collisions précoces,
2/ lien entre production de matière noire et collision,
3/ collision frontale = matière noire immobilisée,
4/ matière noire au centre des amas
5/ température des amas liée à la taille (donc l'angle) des
intervalles (voir les fermions relatifs devenant des bosons locaux).
C'est pourtant clair, les BECs noirs sont majoritaires (95%) et
remplissent les intervalles noirs entre les étoiles. Leur gamma
interne est plus faible que celui des étoiles visibles car les
baryons noirs sont dénaturés. Leur interaction avec le
BEC est amoindri. C'est la raison pour laquelle le taux
d'enchevêtrement de BECs noirs est faible et donc ces BECs sont
TRES
ETENDUS. Cela est confirmé par la mesure de la
proportion : ciel noir/ciel visible.
Tableau des échelles de l'Univers
Un modèle doit être cohérent, explicatif et recouper toutes les échelles mesurées de l'Univers.
Le catalogue Planck remet
en cause la répartition des masses dans l'univers
Plus on regarde loin plus les amas sont massiques [1].
Le
décalage vers le rouge ; 1, veut dire 8 milliards d'années lumière (8 Gly).
On
voit bien que la courbe moyenne des points noirs, indique une
augmentation de la masse des amas, avec la distance. De plus ce
relevé possède, pour le moment, peu de points à grande distance.
Cette courbe est largement prédite par le modèle OSCAR, depuis des
années. En effet, la mitose de type fractal, favorise les
collisions précoces. Or, selon la base du modèle OSCAR, la matière noire est
fabriquée en masse lors de ces collisions. En moyenne, la source [1] dit
que les amas sont fait de 90 % de matière noire (DM). Elle dit
également que la correspondance avec le CMB nécessiterait (pour le
moins) une augmentation de 45 % de la masse.
Ce
qui surprend le modèle standard, colle parfaitement avec le modèle
OSCAR. La source [1] indique que la majorité de la DM est produite au début de
l'univers. Ainsi la moyenne est sous-estimée d'un facteur proche de 2. En
effet, le modèle OSCAR est cohérent avec :
1/
la mitose fractale débouche sur des collisions précoces
(observées).
2/
ces collisions fabriquent la matière noire DM (observées).
3/
le mode fractal contraint un gradient des vitesses de l'expansion en
couche.
4/
l'énergie sombre (ES) est ainsi expliquée et n'est pas à décompter
dans les masses.
5/
la constante identifiée de la courbe de l'expansion est la quantité de
mouvement
6/
Cela est confirmé par le graphe ci-dessus.
Ainsi
la répartition est la suivante :
Avec
B = baryons.
En
réalité, ce qui se cache derrière cette
mystérieuse énergie
sombre, c'est le fait que l'horizon cosmologique ne nous permet pas
de voir un décalage vers le rouge indiquant une vitesse de
fuite, bien
supérieure à c. Cette énergie est celle de
l'expulsion fractale
qui n'a rien à voir avec la masse inertielle. Dans ce cas bien
précis, la notion classique de masse-énergie n'est pas du
tout
valide. L'accélération observée est en fait
le symétrique dynamique de la déccélération
des couches en avance et à faible densité. On note
que dans les amas, Planck trouve un rapport :
DM / B = 10. Ce qui amènerait la DM à 40 % dans la
répartition standard. En augmentant cela d'un facteur 1,45 comme
indiqué, on obtiendrait près de 60 % de DM.
Nous
prédisons ici, qu'en 2014, Planck nous révélera une courbe encore
plus prononcée qui devrait ressembler à cela. (voir la liste des
prédictions vérifiées).

Elle
confirmera que les étoiles noires sont environ 24 fois plus
massiques (donc nombreuses) que les étoiles visibles. Cette moyenne
est à peu près centrée dans notre environnement. Aux limites de
l'univers (*), la proportion de DM est proche de zéro. En regardant
le ciel, on peut voir cette proportion entre les filaments
galactiques et les zones noires.
*
Selon le modèle standard cette limite est à 46 Gly et selon
OSCAR elle est à 76 Gly. La célérité max n'est pas de 3,4
c mais exactement de 5,7 c. (gradient des vitesses
contraint par le mode fractal).
Les prédictions OSCAR
February
2010
|
radius
proton
|
The
relative status of non-local fermion creation (FCNL) requires a
single elementary particle, the electron. The electron-positron
pair comes from the dual oscillator tachyon. Status FCNL forced
neighboring pairs behave like bosons and therefore can merge. Thus
protons and neutrons are composed of these pairs FCNL. Compton
length is related to four groups each forming elements 460.
rP
= 8,42 × 10-16
m.
|
CNRS
KASTEL
July
2010
8,42×10-16
m
|
March
2010
|
Link
Dark
Matter
colliding
galaxies
|
The
status FCNL implies
a link
between colliding
galaxies and
the Dark Matter emergence.
A galaxy with a
low baryon will be compensated by a high rate of dark matter. But
the BEC-DM interaction is weaker and therefore, the halo is more
extended.
|
WILEY
APS
ASTROPHYSICS
PhysOrg
2012-2013
|
April
2010
|
Early
formation
of
galaxies
|
The merging of
Tachyon in a first Bose-Einstein condensate (BEC) forced his
mitosis. There are so many stars that BECs. Each BEC has a gamma
constant accelerating accretion. The star and the primitive
galaxies form in 200 million years.
|
nature
2012
|
September
2010
|
Halo
and BEC cosmological
|
A typical galaxy has a halo of
200 thousand light-years(150+50).
This halo is formed of 1011
BECs
entangled. The
BEC-Baryon typical interaction is observed with Pioneer 11 as a
gamma 10-11.
A wide BEC, this gamma is 107
times
stronger than gravity. This interaction results in a typical halo
radius of 50
kPs.
|
APC
BERKELEY
|
January
2011
|
Extended
halo dwarf galaxies
|
The
proportion of baryonic dark matter of some dwarf galaxies is
1/1000. The BEC-Dwarf
Galaxy interaction results in a typical
halo radius of 400,000
light years.
|
IOP
Sciences
CEA
|
March
2011
|
Black
galaxies
|
A large scale intergalactic medium
is indicated by dark galaxies. Their halos are very extensive.
The model says
that a number of 1022
BECs black fills the universe. The cube root corresponds to the
maximum potential radius of the universe. Was 107
× 1021
m = 1028
m > 76 Gly.
Black spaces (between filaments of galaxies) we observe a radius
of 175 million light years. They consist of black galaxy density
very thin. The average halo is about 20 times that of a typical
galaxy (4 × 106 ly). A black space (interfilament) is evidenced
by approximately 300,000 galaxies black.
|
APS
Physics
ESO
|
May
2001
|
Galaxies
Clusters
|
A giant black galaxy at the
center. It is the result of internal collisions. Halo "black"
encompasses the entire cluster.
It materializes
the gravitational magnifiers to amplify the image of the body
located beyond.
|
CEA
CEA
|
September
2011
|
Andromeda
Central
Black
Holes
|
Young
stellar 200 million years revolve around the central black hole.
FCNL status applied to the
galactic center, transforms tachyons in electron-positron become
locally baryons. It is therefore normal to observe young stellar
near the center. (see Strange Black Hole)
|
Sciences
Avenir
|
date
|
type
|
prediction
OSCAR
|
Links
|
October
2011
|
anisotropy
cosmological
|
The
model indicates that the BEC-0 fossil should be observable in the
center. Our position (not preferred) is offset from 7 Gly (8% as
total radius = 76 Gly). So our expansion is 0.5 c. We show that
the anisotropy (+/- c) is 2%.
|
Wikipedia
|
October
2011
|
Strange
Black
Hole
galactic
|
The
galactic center is indicated by the sphere of common zero points.
It emits positron-electron pairs which becomes part of the
baryonic matter. This black hole is different from what the theory
expects. There is a strong lack of gamma-ray and antiproton.
|
NATURE
GSJournal
|
October
2011
|
Proton
mass
|
The
model forces the proton to be composed of electron-positron pair
type FCNL.
The
link with the radius is demonstrated
(in unit electron
mass).
|
PDG
|
May
2012
|
link
between
distance-mass
|
Fractal mitosis
constraint the gradient expansion velocities. Late layers are
denser.
|
CEA
|
May
2012
|
Cold
Spot
Eridan
|
The model indicates that
the BEC-0 fossil should be observable in the center. Our position
(not preferred) is offset from 7 Gly (8% as total radius = 76
Gly).
|
Futura
Sciences
|
Sur les seules
prémissses fondatrices du modèle, et notamment le statut
FCNL (création de paires électron-positrons, suivie d'une
séparation causale) le modèle contraint les
éléments suivants :
rayon du proton ;
lien entre collision de galaxies et émergence
de matière noire ; formation précoce des
galaxies/étoiles par les BECs ; halo de galaxie
réalisé par enchevêtrement de Condensats de Bose
Eisntein, aptent à retenir la matière noire ; halo
étendu pour les galaxies naines (en apparence); galaxies noires
majoritaires ; halo englobant les amas de galaxies avec
température d'annihilation partielle, fonction de la taille ;
sphère centrale d'Andromède qui fait naitre des
étoiles (200 millions d'années) plutôt que de les
avaler comme un trou noir ; anisotropie observationnelle liée au
modèle à symétrie sphérique ;
sphère centrale de galaxie matérialisant le point
zéro commun et ne se
comportant pas comme un trou noir car il émet de la
matière plutôt que
de l'accréter ; masse du proton selon le statut FCNL ; lien
entre la masse des amas et la distance ; énorme trou froid de 1
milliard d'années-lumière.
Toutes ces
contraintes sont donc des prédictions. Elles ont
toutes été observées. Ce qui était
surprenant pour les découvreurs était attendu par le
modèle.
Size in kly
type |
visible size |
halo size |
Halo : DM/baryonic |
classical galaxy |
50 |
200 |
5 |
dwarf galaxy |
10 |
400 |
20 |
black galaxy |
0 |
1000 |
100 |
Le
Kelvin est
une unité arbitraire
1/ les 5 acteurs historiques
Une
grande confusion règne dans la compréhension épistémologique de
l'unité de température. Beaucoup pensent que l'expression en Kelvin
est magique et donne des nombres transcendantaux que l'on pourraient
comparer avec des constantes mathématiques. Nous allons montrer
qu'il n'en est rien.
symboles
|
noms
|
valeurs
|
unité
arbitraire
|
R
|
constante
de proportionnalité des gaz parfaits
|
8,3144621
J/mole/K
|
oui car
R = NA
× KB
|
NA
|
Nombre
Avogadro
issu du
système cgs et nécessite un facteur 103 pour le
convertir en MKSA
|
6,02214129×1023
mole-1
|
oui car il
est fonction de la masse atomique u déterminée par le nombre de
carbone 12 contenu dans 12 grammes
|
KB
|
constante
de Boltzmann
|
1,3806488×1023
Joules/K
KB = NA /
R
|
oui
car c'est le ratio des deux premiers et de plus l'énergie est
exprimée avec des unités arbitraires issues du kg, du
mètre et de la seconde
|
K
|
degré
Kelvin
base
déterminée par le point triple de l'eau.
|
273,4 K
|
oui car
l'intervalle unitaire est le même que celui du degré centigrade
déterminé par rapport à l'eau
|
mol
|
mole
|
quantité
de matière contenant autant d'entités élémentaires qu'il y a
d'atomes dans 12 g de carbone 12.
|
oui car le
carbone 12 n'est pas une entité élémentaire à caractère
universel, en physique fondamentale.
|
Ces
unités sont cohérentes au système SI (sauf la mole qui est
exprimée en gramme). Cependant la constante de Boltzmann résout le
problème car l'unité ancienne de la mole s'annule dans la division.
Le facteur 1000 reste comme un poids épistémologique inutile.
2/
Proposition du CNRS en
2002
En
2002, le CNRS propose d'utiliser comme unité de masse atomique, la
masse du proton plutôt que celle du carbone 12. Historiquement
(Dalton en 1805) ce sont les chimistes qui ont eu la main sur ces
constantes. A l'époque, le carbone 12 représentait une bonne moyenne
dans ce domaine.
Depuis,
la définition des constantes a été rapprochée de la physique
fondamentale. Ainsi le proton est considéré à juste titre comme
plus fondamental que l'atome de carbone. Cependant, cette
proposition intelligente à été rejetée. Nous allons montrer
qu'il existe une base encore plus fondamentale. De plus, la démarche
vers cette base, éclaire et simplifie la compréhension de ces
relations.
3/
Proposition relative au modèle OSCAR
Le
modèle OSCAR montre que l'électron est la particule universelle de
l'univers [1 to 22]. Plutôt que de définir une mole dans l'unité
cgs nous dirons que l'unité SI (1 kg) contient
un nombre de module me-1,
d'électrons. Cette démarche est la même que celle qui porte sur
le nombre d'onde. Dans le tableau suivant on remplace NA
(Avogadro) par NAO (Avogadro amendé OSCAR).
symboles
|
noms
|
valeurs
|
rapport
avec l'ancien système
|
u0
|
masse
électron
|
9,10938215×10-31
kg
|
1/1822,8885589
en
unité "électron" qui correspond à un couple
(proton + électron) dans le cadre de la masse réduite du
carbone 12
|
NA0
|
Nombre
Avogadro-Oscar
directement
accessible en MKSA
|
1,0977692927×1030
en module,
c'est l'inverse de la masse de l'électron
|
NA0
= nombre pour 1 kg d'électrons plutôt que pour 12 g d'atomes de
carbone 12.
|
Te
|
température
de l'électron
(connue)
|
5,929896939×109
K
|
inchangée
|
R0
|
Constante
des gaz parfait
exprimée
en SI
|
R0
= me-1 ( me c² / Te)
R0
= c² / Te
R0
= 1,515633725×107
ratio
joule/K pour 1 kg
|
R0
= 1822,88×R×103
deux
éléments arbitraires sont supprimés
|
KB
|
constante
de Boltzmann
|
1,3806488×1023
Joules/K
KB =
NA / R
|
KB
= NAO / R0
relation
et valeur inchangées
|
La masse
(exprimée en unité électron) d'un
couple {(proton + électron + neutron)/2} fusionné dans le carbone
12, est de : 1822,88855. Elle est à comparer au proton
: 1836,152679.
4.
Discussion
Dans
un système où c = 1, la constante de Boltzmann vaudrait :
me c² = │me│
et donc la température de l'électron deviendrait
unitaire. La température est ainsi nettement montrée comme étant
proportionnelle à l'énergie interne. L'électron
est la seule particule qui soit à la fois : stable, non
composite et non confinée.
De
graves erreurs sont parfois commises en voulant fixer une valeur de
température par rapport à des constantes mathématiques. Cela
arrive car beaucoup croient que la température exprimée en Kelvin
n'est plus arbitraire. On a montré qu'il y a deux raisons fortes qui
font que cela n'est pas possible. L'intervalle arbitraire du l'ancien
degré a été conservé. Défini comme 1/100eme de l'écart de
température entre le point d'ébullition de l'eau et son point de
congélation. Outre que ces données soient liées à la pression bien
particulière de la terre au niveau de la mer, l'eau ne représente
pas une base fondamentale en physique. Pas plus que le carbone 12
d'ailleurs. Le modèle OSCAR démontre que ce sont les paramètres de
l'électron qui représentent les unités fondamentales. Elles sont
exprimées avec des unités certes
arbitraires (SI),
mais elles permettent de construire toutes les constantes
fondamentales. On pourrait ainsi considérer que la température de
l'électron est égale au module de son énergie. Le changement
d'unité pourrait se faire avec une constante de Boltzmann unitaire
de dimension inchangée (J/K). Cependant,
la courbe asymptotique vers le zéro ne permet pas d'avoir un second
point pour modifier l'intervalle unitaire. Il vient que la valeur
arbitraire du Kelvin apparaît comme inéluctable.
5. Bibliography


Ci-dessus un dessin d'artiste figurant les 6 étapes fractales
générant chacune une éjection à
célérité c. La (faible) part des vecteurs
typiquement radiaux, constituent les couches d'expansion en avance.
Notre position observationnelle relative (Hubble) à
v = 0.5 c,
proche du centre canonique, est caractérisée par une
fraction majoritaire de matière noire. Le diagramme montre
que la somme M visible + M noire, reste invariante. Si on pouvait voir
au-delà du rayon de Hubble, le ciel apparaitrait de plus en plus
brillant. Par rapport à l'axe radial, la relation fixe la
composante radiale de vitesse finale en fonction des différents
angles d'émissions. La relation qui somme la vitesse finale est approximative car elle
considère que les collisions sont inélastiques.

Expansion en couches de vitesses
Ci-dessus le rayon de Hubble (en bleu) est distinct du rayon
canonique (en rouge). Cependant comme le delta c est indentique, pour
un âge partout le même, on obtient une quasi isotropie
observationnelle.

Le
néant selon le modèle Oscar
1. L'aspect
lexical
La
définition lexicale du néant est bien trop ancienne pour
espérer
recouper une réalité physique moderne. Par exemple dans
Wikipédia
on parle du « rien » ou de
« nullité absolue »
ou de zéro. Il est également défini comme
étant différent du mot
« vide » qui lui-même se rattache à
l'espace. Nous
allons montrer que ces mots, sont d'une grande pauvreté
lexicale,
car leur lien avec la physique du réel est fictif. Si le
philosophe et le mathématicien peuvent se contenter de ces
définitions éculées, le physicien a le devoir
d'actualiser tout cela avec la nouvelle connaissance que nous avons
de l'objet univers qui contient tout.
Cependant,
la définition de l'objet univers est également à revoir.
Ainsi
nous allons proposer une définition moderne du néant comme étant
le terreau de la partie d'univers observable. Cette approche appelle
d'emblée la notion de dualité qui s'oppose à l'unicité propre à
la théologie. Respecter les règles de démarcation de Popper,
c'est refuser de faire appel à une intervention divine pour créer
l'univers. Nous allons montrer que rien n'échappe à la dualité, y
compris la dualité elle-même. En effet, pour définir le néant il
n'y a rien de mieux que le principe d'action nulle. Armé de ces deux
principes forts, nous allons montrer comment l'univers est forcément
dual (ou duel).
2. Dualité
de l'univers
On
sait depuis les expériences de monsieur Aspect (portant sur
l'intrication et la non localité) que L'univers que nous observons
est un tout indissociable. Comme disait BOHM en matière de recherche
fondamentale, il ne faut pas chercher à fragmenter les sujets car
ils sont tous une partie d'un continuum à toutes les échelles. Donc
cet univers est caractérisé par des paramètres quantifiés ou
discrétisés (théorie quantique). Il possède des constantes
fondamentales. Cela veut dire que sa dualité à cet égard, exige
l'existence d'un autre état, purement stochastique.
La
question est double :
-
comment
déterminer cet état stochastique qui doit respecter le principe
d'action nulle (PAN) ?
-
comment
déterminer la transition de cet état stochastique en l'état
quantique que nous connaissons, pourvu de constantes ?
La
première réponse est apportée par la conjugaison des mêmes outils
{DUALITE + PAN}. La dualité implique la notion de fluctuation
stochastique. Les deux entités qui la composent, s'annulent
strictement dans les fluctuations symétriques.
3. La notion
d'oscillateur-dual stochastique
Le
néant ne peut être statique car, par
définition, il ne saurait évoluer. Il est donc dynamique.
Il doit respecter rigoureusement le PAN.
La seule solution est l'oscillation duale aléatoire qui s'annule
strictement.
On arrive donc à la conclusion que l'état stochastique de
l'univers
est représenté par des oscillateurs-duaux. Mais une
réponse doit
être trouvée pour le choix dual suivant : un seul
oscillateur
ou plusieurs ? Il serait vain de chercher à borner cet
état
d'univers et nous devons admettre une infinité
d'oscillateurs-stochastiques. Mais l'espace dans tout cela ?
Pour répondre à cette question nous allons faire appel au
principe
du rasoir d'Occam qui consiste à
simplifier au maximum un concept naissant. Quel est le minimum
« vital » pour un oscillateur stochastique
dual ? Il
lui faut :
-
une
(double) amplitude spatiale 1D (l'intensité symétrique de chaque cycle est aléatoire)
-
une (double)
masse fonction de cette amplitude (une composante charge conserve le lien causal réciproque)
-
une
(double) période temporelle fonction de cette amplitude et de résultante nulle.
Le
lien causal est matérialisé par une force de
rappel entre les deux entités contraires,
respectant ainsi le principe d'action nulle
(PAN). A chacun des cycles aléatoires, une fonction
précise du
point zéro doit faire en sorte que le lien causal réciproque entre les
deux entités, soit strictement symétrique pour qu'elles s'annulent réciproquement (voir & 7).
4. Le
déterminisme du principe d'action nulle (PAN)
Ces
deux situations, strictement interdites, sont donc obligatoirement
régies par une fonction dont le but est d'éviter
les infinis. Le principe d'action nul est donc tenu de s'
auto réguler. Il suffit pour cela que la masse et la charge évolue
linéairement avec l'amplitude et que le temps varie au cube de cette
même amplitude. C'est tout ! Cela amène la célérité à
varier en 1/r² (voir & 7). On montre que cela suffit à
éviter les infinis et de garder scrupuleusement le lien causal pour
toute nouvelle valeur aléatoire d'amplitude.
D'où
vient la masse ? Cette question devrait plutôt être posée
comme suit : D'où vient le continuum masse-espace-temps ?
La réponse est simple ; de l'obligation duale et donc de la
nécessité absolue du PAN de se matérialiser sous forme
d'oscillateurs duaux stochastiques 1D. A ce stade rien ne justifie un espace 2D ou 3D ou plus.
D'où
vient la charge électrique ? Elle est une composante
incontournable de l'aspect inerte de la masse pour conserver le lien causal. Elle varie
linéairement avec l'inertie. Elle est le reflet dual ou causal de
la
masse. Il est remarquable de noter que la définition
standard du carré de la
charge élémentaire est justement fonction du produit
masse
× rayon classique (de l'électron). C'est exactement ce que
dit la fonction du chapitre 7 mais dans le cadre de l'oscillateur dual
élémentaire. L'interaction de deux charges (e × e =
e²) dépend de la masse et de l'amplitude spatiale.
5. L'espace
stochastique
Il
existe donc sous la forme d'un ensemble disjoint (ou non connexes)
d'espaces 1D stochastiques. Il est donc lui-même un ensemble
stochastique sans étendue spatiale et sans flèche du
temps. C'est
donc un espace potentiel abstrait (un potentiel d'étendue
spatiale) dans
lequel pourrait évoluer une bulle d'univers quantique et
borné.
L'espace stochastique ainsi défini n'a pas de coordonnées
spatiales
et il recouvre une structure dans l'état le plus
désordonné possible. Il n'y a pas de lien entre cet espace abstrait
(potentiellement infini) et la structure sous-jacente. Il est donc
différent de l'espace physique de notre univers observable qui
lui possède une sous structure
physique et très organisée. On verra que l'aspect
erratique des particules virtuelles ne reflètent absolument pas
la régularité de cet espace mais plutôt le champ
perturbatif des interactions des particules de matière. Et ce
modèle montre précisément comment ces
perturbations sont relayées par le réseau d'oscillateurs
et son point commun central dans le BEC. Seuls des
oscillateurs-tachyons peuvent créer des masses imaginaires
(asymétrie = masse imaginaire) et surtout les rendre non locale.
Il n'existe aucune autre théorie qui sache répondre
à la question d'Einstein, comment les ondes sont elles
transmises. Beaucoup de physiciens ne se posent même pas la
question puisqu'ils font malheureusement l'amalgame entre la
description mathématique (sur les effets) et l'explication (sur
les causes).
6. La
dualité combinatoire {stochastique + probabilité}
Entre
deux oscillateurs non connexes, il n'existe quasiment aucune
interaction. Pour qu'une interaction puisse se faire il faudrait
que leur points zéro respectifs soient en recouvrement précis
spatio-temporel. Cependant, si un point zéro quelconque est supposé
infinitésimal, sa taille varie d'un cycle à l'autre. Si la somme
des deux entités s'annule strictement en tous lieux de l'amplitude
(y compris au point zéro) la taille de ce dernier est toujours
asymptotique. L'attraction du zéro recèle une infinité d'approches
et c'est justement ce qui rend l'oscillateur stochastique.
Ainsi
la probabilité d'une fusion de deux points zéro est
quasiment nulle
mais pas strictement nulle ! Que dire pour la probabilité
de
fusionner un très grand nombre d'oscillateurs ? La
combinatoire
est tellement énorme qu'elle est quasiment inconcevable. Mais il
faut se souvenir que le temps (global) ne s'écoule pas. Cela
veut
dire qu'aux limites, pour un temps nul, une probabilité qui tend
vers zéro, finit toujours par se produire. En
réalité le modèle
montre que bien que la combinatoire tend vers l'infini, elle donne
obligatoirement une fusion significative. Avant de voir ce que donne
une fusion des points zéros, il nous faut enrichir notre
première
définition de l'oscillateur stochastique dual 1D. Cela
révèle un autre axe dual, {infini-fini}. La voie du fini
est la seule solution possible du PAN. Tout ce passe comme
si l'infinité physique (interdite) était
commutée vers l'infinité des probabilités. C'est
le déterminisme du principe d'action nulle (PAN).
7. L'oscillateur-boson
Les
deux entités symétriques formant l'oscillateur sont appelées
tachyons (+/-) pour des raisons de masse imaginaire potentielle.
L'entité regroupant cette paire est appelée boson. Il existe deux
types de zéro :
Si
le « zéro amplitude » était atteint, la célérité du
cycle suivant serait infinie. Cela conduirait à une amplitude
infinie et une séparation causale qui violerait radicalement le
principe d'action nulle. C'est justement la variation de la célérité
qui évite toute valeur infinie.
Nous
verrons au & 9, que cette même fonction contrainte par le PAN,
se révèle indispensable pour créer un espace 3D.
8. Expression
de la dualité par un condensat de Bose Einstein (BEC)
On
sait que les bosons sont grégaires et s'associent en BEC. En
fusionnant, ils deviennent très froids et donc très organisés.
Ainsi la fusion de N points zéros totalement désorganisés
(stochastiques) revient à la création d'un BEC. Sa soudaineté n'a
d'égale que son crédit d'enthalpie qu'elle donne à la bulle
univers quantique naissante. Ce crédit sera dépensé sous forme
d'accroissement de son entropie. La naissance de ce BEC peut être
vue comme la synchronisation de Huygens. La synchronisation de N
boson-oscillateurs conduit à créer les constantes sur la base de la
moyenne exacte des paramètres des N oscillateurs, auparavant
stochastiques.
L'équation
générale de l'équilibre d'un BEC est claire :
elle relie la
température K (l'agitation) avec la densité de bosons et
leur
masse. Ainsi l'événement, de nature purement
aléatoire, ne peut
pas donner un BEC stable. On montre qu'il a toute les chances
d'être
largement saturé. C'est encore l'aléa qui va créer
une mitose
(explosive) pour arriver à ce que les BEC-fils perdent leur
densité
jusqu'à ce que l'équilibre soit atteint. L'univers-bulle
est né
et son expansion peut commencer sous l'impulsion de
l'incontournable mitose (la mutliplication des BECs est de
type fractal).
9. La
naissance de l'espace 3D
Chaque
étape de mitose voit grandir l'intervalle élémentaire entre deux
oscillateurs. Il faut comprendre que le BEC, à symétrie sphérique,
possède en son centre un point zéro commun. On a donc un réseau
d'oscillateurs distribués autour du centre, dont l'amplitude
matérialise le rayon du BEC sphérique.
Cependant,
à première vue, les amplitudes radiales s'écartent comme des
rayons et donc les intervalles devraient varier
en r². Chaque
couche de tachyons seraient donc de moins en moins denses. Or
ce n'est pas le cas,
pourquoi ? Il suffit de relire le chapitre 4, où
on voit que le PAN
contraint la célérité à
varier en 1/r².
Ainsi, la condition essentielle qui
est de garantir une
densité constante dans le BEC, est atteinte. Comment ? Tout
simplement par le jeu de l'augmentation de surface des
couches, compensée par
la variation de célérité. En fait, on montre que pour réaliser
cela, la trajectoire des tachyons est contrainte de suivre un chemin
hélicoïdal. Cela veut dire que des espaces 3D (donc des volumes
élémentaires) peuvent construire un espace-temps dans chaque
BEC-fils. Mieux, chaque volume élémentaire est ainsi doté d'un
spin unique donné par la trajectoire hélicoïdale des tachyons.
Chacun des volumes
élémentaires est borné par l'effet magnétique des tachyons qui
l'entourent. Via le point zéro commun, l'enchevêtrement des volumes
élémentaires assure la continuité et la constance de
l'espace-temps-spin. Par
ailleurs, toute perturbation des oscillateurs, se traduira par une
asymétrie autour du point zéro et donc par l'émergence d'une masse
imaginaire. C'est l'explication universelle de tous les types de
masse extraites du niveau subquantique.
L'espace 3D du BEC est ainsi de type Lobatchevski
au sens où les parallèles passent par un même
point, à savoir le point zéro commun des
oscillateur-tachyons. Cependant il faut répéter ici qu'un
modèle physique sérieux ne saurait se contenter de la
simple approche de type géométrique avec sa
topologie et sa métrique. L'espace de l'univers observable n'est
surtout pas une fiction mathématique mais possède une
structure physique dynamique à base d'oscillateurs-duaux
synchronisés.
10. Mitose
+ séparation causale + annihilation
Chaque
étape de mitose voit donc augmenter son intervalle élémentaire.
Cela veut dire qu'il existe un lien fort entre le nombre de BEC-fils
et le ratio d'augmentation de l'espace élémentaire. On montre que
les bosons de la première couche éjectée du BEC-0, subissent une
séparation causale. Cela veut dire que la masse des tachyons
continue d'augmenter au delà de leur valeur nominale. Cette couche
ralentit à la célérité c tandis que la masse augmente à celle
d'une paire électron-positron. La quantité de mouvement est
conservée. Ces paires électron-positron se comportent localement
comme des bosons et peuvent s'assembler en neutron-protons, sans
s'annihiler. On montre que les quarks sont induits par les couches de
bosons et qu'ainsi une seule paire est nécessaire pour expliquer
tout le bestiaire de particules.
Dans
le même temps, le freinage amène un recouvrement partiel des
paires. Cela implique une grande annihilation qui s'exprime à
chacune des étapes de mitose. Ainsi, les intervalles sont agrandis
successivement du ratio alpha à chacune des 5 homothéties 3D + une
fois en 1D. Il y a conjonction des deux causes d'agrandissement des
intervalles (mitose + annihilation qui laissent des trous). On montre
que l'enchevêtrement des BEC-fils permet la création d'une bulle
d'univers possédant des espaces élémentaires constants malgré
l'expansion.
11. Séparation
causale = gravitation
On
montre avec grande précision que la séparation causale vient du
fait que les masses s'additionnent comme des scalaires alors que la
somme des charges alternées est de type algébrique. Cela revient à
considérer un grand oscillateur dont la variation d'amplitude est
matérialisée par l'expansion. On montre avec très grande
précision que la somme des gradients de force particulière de
rappel des oscillateurs fossiles, correspond à la gravitation.
12. Définition
duale de l'espace physique de l'univers
Ainsi
l'appellation « univers » concerne l'ensemble infini
stochastique + sa bulle quantique en expansion. Comme l'état
stochastique n'a pas de flèche de temps, on ne peut pas décompter
la phase au cours de laquelle un nombre fantastique de combinaisons
sont exécutées au gré de l'aléa. Donc en terme de temps, cet état
est quasi instantané. On peut chercher à savoir si plusieurs
bulles peuvent cohabiter au sein de cet état stochastique. Le modèle
montre que la période moyenne des oscillateur-bosons formant BEC est
le temps de l'électron (te =10-21
s). Ce temps représente le pouls de chaque BEC de notre bulle
univers. Il est clair qu'une autre bulle aura des constantes
différentes (certainement liées au nombre N de 'échantillon
aléatoire). Mais prenant celle-ci comme référence, on montre
qu'en faisant la somme temporelle de la combinatoire (C Σ
te), on obtient un temps
extrêmement plus grand que la durée calculée de cet univers. On
compare des nombres comme (C Σ
te) = (10100)200
secondes avec tU = 1018 secondes. Le temps
équivalent au tirage aléatoire ne peut se décompter que dans le
référentiel de la bulle univers et dans la limite de son propre
tirage aléatoire.
Comme
pour le dodécaèdre de Poincaré, la sortie d'un bord donné
correspond aussitôt à l'entrée dans le bord opposé. Cependant, le
modèle montre que rien ne peut atteindre l'énergie pour franchir la
limite d'un BEC formant la « peau » de la bulle univers.
Ainsi
la définition du néant passe par un modèle physique complet
d'univers. Cette définition sera proche du réel si elle est
capable de lever les 33 énigmes fondamentales relevées à toutes
échelles.
commentaires
|
nom de
l'ensemble
|
Dualités
fondamentales
|
déterminisme du principe d'action
nulle
l'infini est contraint d'être évité
|
univers
stochastique
dualité fini/infini
|
action
nulle
fusion finie
|
probabilité
champ infini
|
est lié à
la dualité d'échelle
|
univers
quantique
|
local
|
non local
|
Les deux
états cohabitent
|
univers
global
|
quantique
|
stochastique
|
les
tachyons en réseau créent l'espace-temps-spin
|
échelle
de localité
|
quantique
|
subquantique
|
aléatoire
dans l'état stochastique et constant dans l'état quantique de
l'univers
|
boson-oscillateur
|
tachyon
négatif
|
tachyon
positif
|
création
non locale + séparation causale = boson
|
boson non
local
|
électron
|
positron
|
principe
global de l'action nulle
|
séparation
causale
|
gravitation
|
expansion
|
l'enthalpie
de la synchronisation en BEC compense l'accroissement d'entropie
|
action
nulle
|
condensation
BEC
|
expansion
|
le nombre
BEC-fils = ratio d'intervalle final / origine
|
équilibre
BEC
|
Nb mitose
|
ratio
intervalle
|
L'intervalle
élémentaire de l'espace-temps est celui du réseau de tachyons
|
non
localité du spin
|
échelle
cosmique du BEC
|
échelle
subquantique
|
la masse du
tachyon lui confère une amplitude cosmologique alors que celle de
l'électron correspond au rayon du volume élémentaire.
|
dualité
onde-corpuscule
|
longueur
Compton
|
rayon du
BEC
|
masse
électron
|
masse
tachyon
|
|
état stochastique de l'univers
où le néant est représenté par une infinité de
boson-oscillateurs-duaux
|
|
transition dans l'état
quantique. Les constantes sont celles de la moyenne de
l'échantillon synchronisé en BEC
|
|
état d'univers quantique
caractérisé par la mitose du BEC-0 qui crée l'espace en
expansion.
|
L'unicité
est toujours la confrontation d'une dualité.

Au terme de l'expansion d'une bulle-univers, tous les BEC-fils forment
une coque sphérique dont le rayon est celui d'Eddington.
L'intervalle est d'un demi diamètre (rayon) et donc le taux
d'enchevêtrement est de 50 %. Toute la matière est alors totalement annihilée et les BECs
retournent lentement à l'état stochastique dont ils sont issus.
Le
paradoxe du néant physique
et
les trois types de zéro
On
a vu dans l'article précédent que les deux situations suivantes ne
peuvent être justifiées :
La
première contrainte implique une sommation algébrique duale,
strictement nulle. La seconde contrainte implique une notion de
fluctuation stochastique (oscillation duale).
On
a vu également que la notion de zéro est duale à plusieurs titres.
Il y a trois types de zéro très différents entre eux.
-
le non zéro physique quantique (indiscernabilité de Heisenberg)
-
le zéro strict stochastique (sommation duale)
-
l'allure asymptotique du point zéro de l'amplitude spatiale de
l'oscillateur dual stochastique
Le
premier (directement observé) ne concerne pas l'état néant
stochastique. Sa véritable source physique est tout simplement liée
au réseau de tachyons relié par le point zéro commun du BEC. Il
dit que dans l'intervalle temporel
te,
le tachyon est indiscernable dans le BEC. Cela revient à dire que le
corpuscule électron est indiscernable dans sa bulle de Compton. Il
n'est légitime que dans l'état quantique (ayant des constantes) de
l'univers. L'utiliser par défaut pour justifier l'émergence à
partir du néant, est une des plus grandes erreurs académiques de
notre siècle.
Le
second type de zéro représente la seule réponse à l'exigence
d'absence d'action et de constante. La dimension spatiale est 1D car
aucun réseau n'est constitué pour le 3D. Le 3D « spontané »
n'existe pas et nous devons montrer en détail comment il peut être
constitué sous certaines conditions. Mieux, nous devons montrer en
détail comment le déterminisme du principe d'action nulle, est
déterminant pour construire le réseau dynamique. C'est en montrant
cela que l'univers « non observable » devient
transparent.
En
terme de dualité, le troisième type de zéro s'exprime comme une
commutation entre l'infini physique et l'infini statistique, {∞
phys → ∞ stat}. On a
vu en détail comment le déterminisme de l'action nulle empêche le
zéro-masse de générer l'infini-célérité qui briserait la
causalité, elle-même garante de l'action nulle.
L'erreur
académique sur les filaments galactiques
Grâce
aux progrès intervenus sur les nouveaux télescopes, les
cosmologistes révèlent une image du fond profond de l'univers
prenant la forme de filaments.
Le
modèle académique (CDM) considère à juste titre que c'est la
matière noire (DM) qui est à l'origine de cette structure en
filaments. Cependant, n'ayant aucune prémisse fondatrice, Le modèle
utilise cette matière noire comme accélérateur d'accrétion pour
expliquer la formation rapide des galaxies. C'est une grossière
erreur commise pour tenter de résoudre des énigmes à partir d'une
DM évoquée comme la solution miracle sans pourtant connaître la
cause de son existence.
Pour
bien comprendre (et non pas se borner à décrire), il faut tout
d'abord expliquer d'où vient la matière noire (DM). La déclinaison
des prémisses fondatrices du modèle Oscar résout complètement
toutes les énigmes (33 sont recensées) en démontrant que les
particules de matière sont toutes issues d'un seul type,
l'oscillateur dual, électron-positron. Une séparation causale
originelle des éléments constitutifs de toutes ces paires, fait que
localement, les voisins électron-positrons (de paires différentes)
se comportent comme des bosons. Ainsi les règles réductionnistes
de Fermi sont fausses car leur validité n'est que locale. Si les
paires créées localement restent bien des fermions, c'est un
épiphénomène face aux lois profondes de l'univers.
Ainsi
les accrétions LOCALES de matière formant la galaxie A est
condamnée à s'annihiler en cas de collision avec une galaxie B
issue d'une autre région. Il est aisé de comprendre que si l'angle
entre les deux région, forme un angle π,
alors l'annihilation sera totale. En revanche, tout angle
intermédiaire provoquera une annihilation partielle de la matière.
Par définition cette matière perdra son lien harmonique avec le
« vide » et n'aura plus d'émission spontanée. Ce sera
une sorte de boson dégénéré et invisible. Le modèle démontre
que le big bang, de type fractal, favorise les collisions
primordiales. Ainsi d'énormes quantités de DM sont fabriquées dès
les premiers instants. Ces collisions émettent des sursauts gamma
dans une large gamme en fonction des angles incidents.
Le
modèle démontre que l'espace 3D est un enchevêtrement de
condensats de Bose Einstein cosmologiques (BEC). Ces BECs (voir
article précédents) possèdent une force de couplage (gamma
centripète) qui est inversement fonction du taux de DM. Ainsi les
galaxies visibles ont un enchevêtrement serré de BECs formant halo
observé et les espaces « vides » et noirs
(majoritaires), sont des BECs hébergeant la DM et donc avec un
faible taux d'enchevêtrement.
Ainsi
le modèle académique :
1/
observe les halos et considèrent qu'ils sont faits de DM alors
qu'il la contient.
2/
observe la rapidité d'accrétion des galaxies et pense que c'est une
DM opportune qui l'explique
3/
observe des filaments et ne voit pas qu'il ne s'agit que de restes
épargnés par les collisions
4/
observe les collisions fréquentes et l'apparition de DM sans faire
le lien de cause à effet
5/
observe le gamma centripète de Pioneer et ne fait pas le
rapprochement avec le halo
6/
observe des sursauts gamma et ne voit pas qu'ils signent une
annihilation partielle
7/
observe les fermions de création locale et pense qu'ils sont valides
dans l'univers global (non localité)
8/
observe la non localité de l'intrication quantique et ne voit pas
qu'elle est cohérente avec les points précédents.
Fermi
et Planck, dans le contexte réductionniste de Copenhague, ont
conduit les chances d'explication de l'univers, dans une impasse. En
revanche, Eddington, Dirac et Bohm n'ont pas été assez écoutés.
Comme
la technologie (purement locale) est source de profits, alors l'hyper
spécialisation par l'analyse mathématique descriptive a fini par
remplacer totalement la synthèse explicative. Décrire n'est pas
expliquer et analyser n'est pas comprendre.

Résumé du modèle Oscar

Concernant l'accélération de l'expansion,
les zones en retard sont les seules ouvertes à l'observation
(rayon de Hubble) .

La fonction
Ψ
qui évite les infinis à l'approche asymptotique du
point
zéro dans l'état stochastique de l'univers (voir
définition non triviale du néant) est ici
représentée graphiquement. Ce sont les contraintes du
principe d'action nulle qui permettent de construire
l'espace 3D de l'univers, à partir
d'intervalles
élémentaires constants. Avec le temps
élémentaire (te = période d'un
oscillateur), toute information passe par le centre (point
zéro commun). Cela veut dire qu'une interaction sur l'axe
tangentiel est communiquée à la même vitesse que
sur l'axe radial. L'espace 3D et la subtilité de sa
structure dynamique amenant l'isotropie, sont très loins de
l'image simpliste des fictions mathématiques qui servent
à la description de nos applications locales courantes.
Décrire (les effets) n'est pas expliquer (les causes).
Le
principe cosmologique est simpliste
Extrait de Wikipédia sur
le principe cosmologique
Le principe cosmologique est
l'hypothèse aujourd'hui vérifiée
selon laquelle l'univers est spatialement
homogène, c'est-à-dire que son
apparence générale ne dépend pas de
la position de l'observateur. Il a pour
conséquence que l'Homme n'occupe pas de
position privilégiée dans l'univers, en opposition avec la
théorie géocentrique (aujourd'hui abandonnée), mais en accord avec
le principe copernicien. En pratique, le principe cosmologique
présuppose aussi que l'univers est isotrope,
c'est-à-dire que son aspect ne dépend pas de la direction dans
laquelle on l'observe (par exemple son taux d'expansion ne dépend
pas de la direction)..../....Aujourd'hui, tout modèle cosmologique
prétendant décrire l'univers doit reposer sur le principe
cosmologique, ou en tout cas expliquer
pourquoi l'univers le respecte.
Commentaires
1/
Hypothèse : au départ elle
ne repose que sur l'idée de simplification
2/
vérifié :
non des observations récentes affirment le contraire (voir
groupe de quasars Huges-LQG ; le trou froid de
l'Eridan, anisotropie des constantes, etc...)
3/
spatialement homogène :
l’ambiguïté de cette expression est grande si on ne sait pas
définir ce qu'est l'espace réel de l'univers. En revanche, le
modèle Oscar explique totalement comment est né l'espace 3D
+ à partir de la seule contrainte du principe d'action nulle. Cette
contrainte incontournable qui n'est donc pas une hypothèse,
explique, entre autres, pourquoi l'univers est en expansion
accélérée.
4/
apparence générale :
l'apparence n'est pas forcément la réalité.
5/
position de l'observateur non privilégiée : c'est vrai mais si elle
est relativement proche du centre (6 % dans le modèle) le
gradient des vitesses en couche, apporte une apparence de quasi
isotropie. C'est justement le « quasi » qui est remis en
cause par certaines observations à confirmer dans les années à
venir.
6/
isotrope : voir apparence.
7/
expliquer : ce terme n'est
pas trivial et exige une rigueur qui passe par la levée des dizaines
énigmes fondamentales telles que la DM et l'énergie noire, par
exemple. C'est exactement ce que ne fait pas le modèle standard qui
n'a même pas recensé les énigmes. Le principe cosmologique relève
du principe réductionniste qui élude totalement le problème
crucial de localité.