Accéder au contenu principal

Analogie qui prouve l'improbabilité du zéro absolu

Prenons déjà connaissance de ce que dit MAGNAN du Collège de France : http://www.lacosmo.com/Nature31.html.

Il montre clairement que le zéro physique n'existe pas. L'application infinie (et donc  zéro) issue des mathématiques, trouve une légitimité pour la physique mais dans le seul cas du dénombrement ou de valeurs sans dimension physique (nombre, angle, tangente, etc...).

Ainsi je peux dire qu'une infinité d'oscillateur-boson-zéros, constitue un zéro global car : zéro × infini = 0.
La pré-existence de ces oscillateurs est justifiée par l'impossibilité d'obtenir un zéro inertie. Dans le détail, l'inertie M est liée à l'amplitude L de telle sorte que le ML de l'électron (et seulement de lui) donne la constante h si on multiplie par c. Tout simplement.
Le L est le reflet imaginaire (au sens physique) de M car il est déphasé de pi/2 dans l'oscillateur.

Voici une analogie avec sin x et cos x,  déphasés entre eux de π/2 : pour optimiser le lancement du lanceur de javelot (ou d'un obus) et obtenir la plus grande distance horizontale possible à vitesse initiale égale, la physique nous contraint au produit : sinus × cosinus de l'angle du lancement : L'optimisation est : π/4 (45°) et donne : 1/2 × 1/2 = 1/4 ! C'est le facteur optimal pour le lanceur de javelot pour battre des records en luttant contre le champ gravitationnel de la Terre.

Pourtant l'angle entre l'horizontal (l'axe de l'amplitude souhaitée) et la verticale (le champ g) est bien de π/2. Pour un cosinus 0 (vertical) l'amplitude horizontale est nulle. C'est la même chose pour cosinus = 1 (direction horizontale) si l'origine est au ras du sol (supposé lisse). Bien sûr le lanceur cherche à optimiser car il connait la règle.

Mais que fait l'aléa ? Le hasard est confronté à l'infinité des valeurs intermédiaires dans l'intervalle : (0 > cos x > 1) qui donne toujours une amplitude horizontale non nulle. Que représente la probabilité d'un cos x qui serait très exactement nul ou unitaire ? Pas grand chose. Le hasard ne sait pas distribuer le zéro. Pour un pas (delta angle) infiniment petit, le hasard n'a aucune chance de trouver le zéro précis à souhait.

Ainsi donc l'infinité comprise en 0 et 1 (rien ou quelque chose) est statistiquement contrainte à fournir quelque chose de différent de zéro ! 

Cela veut dire que formuler la question d'une manière binaire, est simpliste et irréaliste.

On ne peut pas dire 0 OU 1 mais "l'infinité de ce qui existe entre 0 ET 1".   C'est là qu'intervient la dualité : s'il pré-existe quelque chose, il faut qu'il se présente avec deux faces qui s'annulent mutuellement. C'est bien le cas pour la paire électron/positron. L'ancêtre de cette paire est le boson-zéro subquantique.

Commentaires

  1. Bonjour Dominique. Pourriez-vous définir pour les lecteurs néophytes ce qui est désigné sous le terme 'inertie" et représenté par M (lettre qui fait penser à "masse")? Pourquoi est-ce une entité "orientée" puisqu'il est question d"un déphasage avec l'amplitude (qui est une longueur)?

    RépondreSupprimer
    Réponses
    1. Bonjour nolats,

      Moi qui suit un spécialiste des équations aux dimensions, j'ai été forcé d'admettre que mon modèle est contraint par une entité primordiale et indissociable qu' est le produit imaginaire ML. Dans notre vue physique macro 3D, il totalement justifié de considérer M comme étant séparé (ou autonome) et scalaire. Dans l'oscillateur dual 1D tachyon, l'existence de l'inertie M est forcément accompagnée par son reflet déphasé L .

      On peut dire également que dans l'oscillateur 1D, la notion de masse scalaire n'existe pas (encore) car une seule direction est permise. La notion de vecteur (ici algébrique) précède la notion de scalaire.

      C'est l'impossibilité d'avoir un zéro M parfait qui alimente l'oscillation stochastique car M = 0 implique une amplitude L infinie... L'inertie M avec son dual L, est la garantie d'éviter un paramètre physique infini qui serait à la fois injustifiable, constant, et infertile.

      On pourrait dire : "au début il y avait cette errance stochastique et bipolaire, d'une infinité* de points zéros**".

      * l'infinité des zéros est possible
      ** le "point zéro" n'est parfait que dans sa somme algébrique. En revanche, il est toujours imparfait dans chacune des branches symétriques.
      Cordialement

      Supprimer
    2. Merci Dominique. L'exemple du javelot m'a déconcerté, car il s'agit d'un espace 3D et l'angle indiqué correspond bien à une inclinaison, j'avais donc eu l'impression que la masse oscillait sur son propre espace 1D à angle droit de l'espace combiné 1D sur lequel oscille l'amplitude. Il semble en fait que ce soit plutôt un seul espace dimensionnel commun, où les oscillations de l'un sont en opposition de phase avec les oscillations de l'autre (le terme "dual" serait alors lié au fait que ces oscillations ne concernent pas des grandeurs de même nature?)

      Supprimer
    3. En fait la signification du terme de dualité est double (sic). Dans une des 2 branche de l'oscillateur, le dual de M est L et dans le référentiel "oscillateur", le terme de dualité représente les deux branches symétriques.

      Comme cela peut amener une confusion, depuis peu, je parle plutôt d'oscillateur bipolaire car il annule parfaitement les 2 "faux zéros" opposés.

      Le poids des mots est important et j'ai surement des efforts à faire ce de côté là.

      Cordialement

      Supprimer
  2. Bonsoir, il est vrai que notre vision macro de M et L, bien séparés, ne nous aide pas vraiment à saisir ces notions, notamment d'inertie. Pourtant cette notion d'inertie parle à tout le monde: plus la masse est grande, plus il faudra de l'énergie pour la mettre en mouvement, mais plus il en faudra également pour la ralentir ou l'arrêter. Si cette énergie est constante pour différentes masses, alors cela se traduira en termes de différences de longueur d'accélération ou de décélérration.
    Dans OSCAR, la séparation (saturation) se fait à 2 niveaux: celui des tachyons duaux qui se "transforment" en électron pour l'un et en positron pour l'autre, mais aussi celui du début d'existence de M et L séparés, même si cela n'est vrai qu'au niveau macro. En effet, il me semble qu'au niveau quantique, M et L sont encore très liés (oscillations des noyaux, éléctronde....).

    Pour en revenir à nos deux entités "préquantiques" liées, sans parler de vocabulaire ou de dimension, on peut peut-être s'en sortir comme cela: le zéro statique est impossible, on en convient car sinon on ne serait pas là pour en parler. C'est donc un zéro non statique. Non statique veut dire mouvement, donc déplacement. Déplacement veut dire espace, le plus simple étant 1D. Pour avoir le zéro non statique, il faut que la balance dans ce 1D soit équilibrée en permanence autour de ce zéro, c'est la symétrie, obligatoire, dans le sens indispensable. Mais il reste quand même quelque chose à éclaircir, c'est la notion d'énergie, nécessaire à tout déplacement. Si on comprend que vectoriellement (symétriquement), on a le zéro global en permanence, de chaque coté de la balance, la même quantité d'énergie est à l'oeuvre. L'une annule t-elle l'autre? C'est difficile à croire/accepter/valider. Ou alors, l'une est une énergie positive (de vie) et l'autre une énergie négative (de mort), difficilement compatible avec la symétrie parfaite. Je ne vois alors que 2 possibilités: soit en effet, la symétrie autour de zéro dans ce 1D fait que les énergies sont forcément vectorielles (je ne sais pas si cela veut dire quelque chose!), soit de chaque coté du zéro (=de la balance), tout déplacement contient en lui même son billet retour, qu'intuitivement on nomme inertie. C'est dans ce cas que M et L sont indissociables, l'un allant forcément avec l'autre, l'un étant le reflet de l'autre, l'un créant l'autre.
    Nouvelle question: cette symbiose est-elle énergétique? dans le préquantique, c'est difficile (impossible?) à dire. Je pense que Mr Mareau devrait dire que oui, car il y a bien quelquechose, d'infinitésimal, variable, de dimension M, qui se déplace, donc L variable, sur la dimension L. Mais un BEC fonctionne sans énergie extérieure. Certes, cela ne veut pas dire qu'il n'y en a pas à l'intérieur. Mais n'est-il pas envisageable que l'énergie, n'apparaisse qu'au moment de la saturation/séparation, quand la matière débute sa perturbation de tout le BEC, ou bien que L et M deviennent de vraies entités séparées ?

    Bien cordialement
    LC

    RépondreSupprimer
    Réponses
    1. Bonjour LC, merci pour ces intéressantes précisions. Vous écrivez: "Non statique veut dire mouvement, donc déplacement". Non statique dans ce contexte me semble surtout signifier "non vide de toute activité", car ne pourrait-on imaginer [en toute hypothèse] des fluctuations autres qu'un déplacement.
      La question de l'énergie que vous évoquez est importante, car intuitivement, même si le comparse d'en face équilibre la paire de telle sorte que l'énergie résultante soit nulle, intuitivement il faudrait quelque chose comme une impulsion initiale. Et le "ML constant" indiqué par la théorie montre qu'il y a bien "quelque chose de constamment non nul" dans le système. (mais je n'ai pas encore lu les commentaires suivants)

      Supprimer
    2. J'ai loupé une marche: en fait les ML homologues s'annulent

      Supprimer
  3. Oui Laurent, il est légitime de se poser la question de l'énergie du point zéro. Déjà, en effet, sans l'aspect bipolaire et symétrique qui annule deux contraires, la genèse resterait injustifiée. Elle se justifie dans notre monde quantique local – déjà formé – puisqu'il y a des échanges avec le subquantique. Mais dans la matrice subquantique stochastique, on ne peut évoquer quelque énergie miracle et primordiale. Donc la bipolarisation explique le référentiel boson (2 tachyons opposés qui s'annulent) . Cependant dans le référentiel tachyon, on doit en effet se demander d'où vient cette "palpitation", ou oscillation.

    Il y a une seule explication :

    - chaque oscillation d'un référentiel tachyon est compensée par l'autre. Cette première partie est nécessaire mais incomplète car elle ne répond pas à la question du pourquoi. Le "pourquoi" se comprend en réalisant que l'alternative ( M = 0) se paie par une amplitude L infinie.... Et là on ne saurait justifier un paramètre physique infini. Seuls les nombres peuvent l'être.
    De plus, comme le dit très bien Laurent, un paramètre physique infini serait forcément statique. Ainsi l'oscillation bipolaire de deux entités contraires est la genèse de cet univers.

    Ensuite, la clé ML = constante est vérifiée partout et permet de résoudre beaucoup d'énigmes élégamment. Cela veut dire que fondamentalement, le dual de M est L. Mais outre la question légitime de l'énergie (elle vaut zéro dans les deux référentiels), il y a la genèse de M L T. En fait le dual de la notion d'inertie M est L. Et le dual de ML est T. Pour toutes valeurs de M proche du zéro, se dessine une amplitude de vibration L, dont le temps T est induit par ML. A chaque cycle, le temps T est une constante de ce cycle, exactement comme l'est ML.

    La dualité entre l'inertie et la longueur se retrouve partout. Par exemple, en électricité où tout s'explique avec : mu(o) et eps(o). Le premier représente l'inertie électrique (c'est l'induction magnétique des bobines) et le second a été appelé "souplesse" car il n'a aucune inertie (les capacités qui dépendent de la longueur).

    Si on créé un circuit où eps compense mu, alors il est sensé osciller éternellement. En fait, dans notre macro, il y a un paramètre R (résistance) qui force l'amortissement). Cela s'appelle un circuit RLC. Cela veut dire que (sans R) ce circuit ne dépenserait exactement zéro énergie).



    RépondreSupprimer
  4. Juste un petit complément sur le OU exclusif. Beaucoup de gens posent la question de la genèse initiale sous la forme classique : l’œuf OU la poule.

    La formulation de la question est rédhibitoire. La réponse correcte est : c'est une itération (longuement évolutive) entre l’œuf ET la poule. En fait, c'est le vertige suscité par les grands nombres, qui rend simpliste.

    RépondreSupprimer
  5. il y a aussi un autre phénomène qui semble couter de l'énergie en apparence, c'est celui de la synchronisation et notamment des oscillateurs duaux primordiaux. En effet, on passe d'une infinité de zéros indépendants à un rassemblement progressif d'un grand nombre d'oscillateurs duaux adoptant comme paramètres individuels la moyenne des paramètres.
    On passe du désordre à l'ordre, difficile de le concevoir sans énergie ou autorité de nature supérieure (en évitant le mystique !). On rejoint alors votre article du 23 juillet.

    Faut-il alors parler d' énergie ou de phénomène de synchronisation ne coutant rien?
    Ce phénomène ne pourrait-il pas être de même nature que celui à l'oeuvre dans chaque demi boson primordial, un phénomène sans énergie? Il ne serait plus question de symétrie d'énergie de part et d'autre du zéro, mais juste un zéro dynamique dual de chaque coté du zéro du boson, en permanence en opposition parfaite avec le zéro de l'autre coté?
    Le zéro du boson serait donc dual, le zéro de symétrie, central et les deux zéros dynamiques de part et d'autre. On n'aurait plus ce problème d'énergie.
    mais il faudrait alors se pencher sur la nature de ce zéro dynamique forcément dual (2 entités opposées). Serait-il du style ML=0 (difficile à accepter, car cela veut dire que M ou L est en permanence à 0, et donc l'autre aussi) ou M+L=0 (qui veut dire que L est l'opposé de M et vice versa)? Peut-être les nombres complexes ou les déphasages imaginaires pourraient être utiles, mais je ne suis pas compétent.

    Je me suis un peu écarté du modèle !

    Ce qui semble être sûr, c'est que les 2 tachyons d'un boson primordial sont parfaitement synchronisés, par nature, par essence, nativement. Ils portent donc probablement en eux la synchronisation inéluctable avec d'autres, via leurs points zéros, jusqu'à la saturation. Mais s'il y a saturation, c'est bien qu'il existe une entité de dimension non nulle et donc qui existe physiquement, qui arrive à sa capacité maximale et qui déclenche un changement. Quelle est cette entité qui craque? A la lecture du livre de Mr Mareau, il semble que ce soit le BEC qui ne peut plus accepter de nouveaux bosons synchronisés car les espaces et masses de chaque boson se retrouvent superposés avec le voisin. Ce serait donc une capacité volumique atteinte alors que l'espace 3D n'est pas encore en place.

    A vous la parole Mr Mareau !

    RépondreSupprimer
  6. La synchronisation est classiquement une baisse de l'entropie et donc d'énergie. Elle s'envisage également comme une opération de fusion. En milieu atomique comme en milieu économique, cela fait baisser les frais de fonctionnement. C'est une opération exothermique.

    Dans la matrice originelle (et néanmoins permanente), l'entropie est à prendre au sens de Shannon, i.e. dans le sens de l'information. La riche information du désordre est en baisse. Mais cette "information" est juste l'expression de l'infinité des solutions existant entre 0 et 1. Elle n'a pas de sens informationnelle (c'est plus de l'ordre du parasitage que du message).

    C'est une erreur de croire que la synchronisation soit portée par un boson 0. Non c'est un phénomène lié aux très grands nombres de brassages. Il relève de la statistique. Dans un contexte où le temps ne s'écoule pas, cela revient à former des flux de synchronisation et donc des BECs.

    On a d'un côté l'influence du désordre où sa densité est stable et de l'autre, un BEC dont la densité augmente. Plus il se remplit plus il est influent. C'est clairement un régime exponentiel ! Cela accentue les différences entre BECs concurrents de telle sorte que le premier affirme de plus en plus sa position de leader. Donc, le premier à saturation déclenche l'écoulement du temps globale ! Statistiquement, les projets en cours n'ont pas de chance d'aboutir. Tout se passe comme le premier spermatozoïde qui bloque le chemin des suivants (sauf dans certains cas). Donc la synchronisation bien que hautement improbable, arrive à saturer un BEC dans la condition impérative du non écoulement du temps. Ce non écoulement revient à un potentiel infini de brassages.

    Posons arbitrairement que le "temps" moyen d'un brassage est celui d'un cycle de tachyon (et donc électron) soit 10^-21 s. Pour synchroniser 10^11 boson-tachyons, il faut plus de 10^500 brassages. Soit un "temps" équivalent de 10^479 s. Or le temps du cycle univers ne fait que 10^22 s. L'écart de 10^457 est tellement grand qu'il n'existe aucune chance pour former d'autres BECs. ainsi les soit disant univers parallèles, sont hyper spéculatifs.

    RépondreSupprimer
    Réponses
    1. Bonsoir Dominique. pourquoi les BECs concurrents seraient-ils affectés par le "temps" du BEC saturés, s'il n'y a pas d'intéractions entre eux?

      Supprimer
  7. Bonjour Nolats,

    En fait il n'y a pas d'interaction, il y a juste un laps de temps trop court pour que les statistiques puissent jouer leur rôle. C'est relativement tellement court que c'est comme un arrêt du flux de brassage.

    La durée de la bulle univers est ultracourte vis à vis des probabilités (ratio 10^500 !) Cependant, le flux de synchronisation dans les BECs avancés, continue dans la période de la bulle (mais n'avance pratiquement pas). Il reprend dans la phase suivante pour élire un nouveau BEC (le plus avancé).

    Il faut bien prendre conscience que tant que la densité d'un BEC n'a pas atteint un certain seuil, le taux d'échec (reflux vers le désordre) est largement majoritaire.

    C'est presque un leçon de vie : pour qu'un projet voit le jour, il ne faut pas se décourager par les échecs successifs car ils sont légions. Notre monde est sous l'emprise d'une augmentation têtue de l'entropie. C'est ce qui fait que les réussites sont loin d'être majoritaires. Cependant, il y en a, comme il y a régulièrement des BECs arrivant à saturation par superposition des sites tachyons. Cela entraîne à la fois une mitose et une délocalisation (première couche) qui annule les zéros duaux pour révéler M L T. Le temps global est alors déterminé (durée d'un cycle) par la racine carrée de la somme des masses comme il se doit dans la règle des oscillateurs. Ainsi l'amplitude de l'oscillateur univers est donnée par 3 aspects différents des constantes physiques :


    Amplitude = G me ξ^8 / c² = c te ξ^4 = h² / G me^3
    Longueur = trou noir = somme des temps = longueur Eddington

    a) il y a d'autres constantes mais elles sont communes aux trois.
    b) l'univers est logiquement un trou noir ET il est la somme de ses constituants ET il est représenté par ses constantes les plus marquantes.
    c) numériquement on obtient le record de 11 décimales

    La durée est de l'ordre de 200 milliards d'années, période à laquelle tous les BECs pavent une coquille sphérique qui relocalise tous les oscillateurs séparés et donc ramène à l'état de la matrice d'entropie maximale où MLT = 0.

    Plus de détail ici (en bas à droite du diagramme) : http://www.cosmologie-oscar.com/index.php?page=reflexion#n5

    RépondreSupprimer
    Réponses
    1. Bonjour Dominique, j'ai suivi le lien, et j'ai re-feuilleté votre site oscar. ξ semble constituer le nombre-Dieu (j'avais déjà été impressionné par ses utilisations à diverses puissances), il quantifie notamment le nombre de galaxies, etc. Pouvez-vous rappeler comment il est "apparu" dans le modèle, et s'il était déjà connu/utilisé par les scientifiques indépendamment du modèle OSCAR?
      J'ai bien conscience de reboucler parfois sur les mêmes interrogations, étant quelques années lumières sous la barre du niveau de connaissances pour maîtriser la question.

      Supprimer
    2. Il est issu du ratio masse de Planck / masse électron = xi². Ensuite j'ai cherché à comprendre d'où venait le ratio entre la force électrique et la force gravitationnelle s'exerçant entre un positron et un électron. La distance ne compte pas puisqu'elle est la même dans les deux cas. Or ce ratio donne exactement xi^4 !
      Mais la majorité de la communauté scientifique préfère regarder le ratio entre un électron et un proton (une mobylette et un camion). Ce dernier ratio entre chou et carotte, ne donne pas xi^4 . Il y a un écart de 1836,15 qui est le "poids" d'un proton compté en unité électron). Et pourquoi ce choix idiot ? Parce que FERMI a dit que la paire électron-positron – fermion de son état – ne saurait composer la matière. Seuls les bosons en ont le droit. Il a tracé une ligne entre fermion et boson qui interdit de les confondre. Avait-il tort ?

      Oui ET non ! Non parce que localement, c'est avéré. Oui car dans le cadre non local c'est faux ! Cela a été confirmé par Mr ASPECT avec le spin. Ce dernier est non local ! Justement le spin est lié à l'état boson OU fermion.

      Donc les protons stables (formés non localement) sont fait de paires électron-positrons se comportant comme des bosons. Mais certains avaient bien tiqué sur le fait que la charge du proton est strictement celle du positron....

      De plus – localement – on peut faire des paires protons - antiprotons. Cela laisse supposé que l'anti matière ne se situe pas au niveau des paires électron-positrons. Sauf qu'on néglige complètement le lien entre la création locale (toujours instable) et la création non locale ( toujours stable dans la genèse univers). Cela fait beaucoup de choses qui crèvent les yeux et on regarde ailleurs.

      En plus, on en déduit qu'il n'y a pas symétrie entre les deux (il n'y a pas d'antiproton stable naturel) et là on viole la loi la plus importante de la physique.

      Voilà un petit résumé car le BEC saturé créé par saturation-mitose une délocalisation (ou déchirure des boson-2-tachyons). Elle ne ressemble en rien à la création locale.

      Ah oui j'oubliais ! Les quarks.... On a décrétés qu'ils avaient un statut de "composant" alors qu'ils ont statut "d'entité induite". La preuve ? Lorsqu'il sont isolés, ils deviennent instables. Ils disparaissent dès que leur matrice ne les tient plus en vie. Je ne vous parlerai pas des gluons (pourquoi pas de la colle Cyanolit ?)/ On croit rêver avec ce niveau ambiant de spéculation en tout genre pour ne surtout pas déranger ce que l'on a appris à l'école.

      Supprimer
  8. Ouf çà remarche ! J'avais une protection (privacy badger en haut à droite du navigateur ) qui m'empêchait de commenter.

    RépondreSupprimer
  9. Merci à Nolats et ses questions qui donnent du dynamisme à ce sujet du blog. Je suis comme lui, j'ai envie de comprendre et on a enfin du répondant qui tient la route avec le modèle OSCAR de Dominique Mareau.

    Pour Répondre d'abord à Nolats sur son commentaire au mien: de mon coté, je n'affirme rien, je ne fais que retranscrire ce que je crois avoir compris d'OSCAR, poser des questions nourries par ma curiosité et les flous sur ce que j'ai compris. Je n'ai aucune compétence en la matière.
    Pour le commentaire sur la fluctuation sans déplacement, de mon coté je n'y crois pas trop car sur les 3 possibilités, je pense que 2 sont à éliminer:
    - il y a fluctuation sans espace (1D, 2D ou 3D): pour moi, impossible, quelque chose ne peut pas avoir un caractère évolutif dans rien. Par ailleurs, ceci peut nous conduire à l'idée d'une énergie infinie dans rien et qu'on appellerait singularité....
    - il y a un espace constant (déterminé par qui? par quelle loi? etc?) dans lequel il y a une fluctuation, de quoi car on doit respecter en permanence la nullité? Par ailleurs si cette espace est non nul et qu'il y en a d'autres,cela vaut dire qu'il y a un espace supérieur qui les contient. Ca ne tient pas la route
    - il reste donc la seule possibilité évoquée par le modèle OSCAR: un déroulement/contraction de l'espace, du temps et d'une inertie intimement liée à celle de l'espace

    Ensuite pour les BEC, on comprend que la vie de notre univers est bien courte en rapport avec l'équivalent temps de brassage des puissances 500, mais cela pose plusieurs questions:
    - à partir de combien de bosons synchronisés a t-on un BEC condamné à saturer?
    - si plusieurs structures naissantes de BEC existent simultanément, ceci ne suppose-t-il pas un espace les contenant, car les BEC ne peuvent pas interférer spacialement, sous peine de se perturber et de s'auto détruire ?
    - si hors univers le temps ne s'écoule pas, qu'est ce qui fait la différence entre une puissance 3 ou une puissance 500? et donc un équivalent temps 10^500 brassages a t-il un sens et peut-il servir de comparatif ?

    Ceci amène à penser que notre bulle univers est unique, comme singularité du néant, somme des infinis zéros. En revanche, une fois disparu, rien n'empêche qu'une autre combinaison de brassage de probabilité quasi nulle aboutisse à former une autre bulle univers avec un Xi différent !

    Même le néant est vivant ! Mais ce qui est encore plus incroyable, c'est que la matière, le temps et l'espace ont réussi à créer la vie, non pas en terme de dynamique spatiale, mais en terme de foisonnement, à la recherche de la survie ou du développement/reproduction: ordre Vs entropie, peut-être un nouveau sujet de blog?

    RépondreSupprimer
    Réponses
    1. Je formulerai la question : "à partir de combien de bosons synchronisés a t-on un BEC condamné à saturer?", par quel taux (en %).

      Pour tenter d'y répondre il faut se souvenir que la cohérence du modèle doit absolument mettre à jour un mécanisme où la densité diminue à nouveau pour fermer le cycle ! Or c'est le cas après saturation et mitose car la bulle univers voit sa densité baisser par l'expansion. Cette baisse va dans le sens du retour à l'état stochastique. Mais pour répondre à la question, il faut voir n BEC ayant n états d'avancement. Comme la courbe du flux s'accélère, on ne peut juste dire que c'est le premier arrivé qui gagne. Je ne sais pas s'il peut y avoir des jumeaux mais cela me paraît très improbable.

      En revanche l'accélération du flux de synchronisation est typiquement liée à la taille du point zéro commun du BEC. C'est comme un puits de potentiel où l'on peut dire que plus il est gros plus la probabilité de piéger, augmente. La taille de ce puits, est proportionnelle à la densité du BEC.

      Oui il y a un espace entre BECs. Il est déterminé par l'empilement statistique des épaisseurs moyennes des corde-bosons qui "meublent" les intervalles. Il est donc variable par essence.

      Le temps se compte en nombre de brassage. Mais comme on ne connait pas le temps du cycle moyen d'un tachyon, on prend arbitrairement le 10^-21 s du cycle électron. C'est là que la simple approximation montre les écarts énormes.
      Quant au calcul de probabilité, il est coton car il s'agit de quelque chose qui s'apparente au factoriel de l'exposant du nombre 10^11.

      Oui je ferai bien un sujet avec le dernier paragraphe de ce commentaire. Cependant, comme je m'absente demain pour 11 jours (de mer), je verrai cela à mon retour.

      Supprimer
    2. Bpnjour Dominique, et bonnes vacances. Remarque pour votre retour "il y a un espace entre BECs", je recommence à perdre mon latin, car cela signifie qu'il existe bel et bien un espace englobant, donc un "monde commun" entre ces phénomènes.

      Supprimer
    3. Me voilà de retour et je vais tenter de vous faire retrouver votre latin. La matrice-néant est faite d'oscillateur-zéros non connectés entre eux. C'est un peu comme des cordes distribuées dans tous les sens. elles se croisent sans interaction aucune sauf .... au niveau de leur point zéro respectif. Si cela arrive en coordonnées relatives et en phase relative (deux conditions simultanées extrêmement peu probables) alors elles fusionnent.

      Mais pour répondre à votre question, il faut voir les oscillateurs comme des cordes.... ayant une certaine épaisseur* (variable dans l'état stochastique). Ainsi, les points zéros sont des sphères ayant ce diamètre**. Ils représentent des intervalles élémentaires, statistiquement non connectés.

      Pour simplifier, considérons arbitrairement que ces intervalles élémentaires sont ceux (en moyenne) que nous trouvons dans le BEC qui a donné naissance à cet univers-bulle.
      Ainsi considérons N (infini) oscars parmi lesquels Nb (finis) forment chacun des BECs. Il y a donc un certain intervalle entre les BEC. La distribution statistique
      des zéros élémentaires est bien en 3D mais rien ne permet de circuler de l'un à l'autre. C'est une matrice statistique où tout est variable.

      En revanche, dans notre bulle-univers (plongée dans cette matrice) il y a bien une distribution 3D mais elle est obligatoirement associée à une quatrième dimension qui est donnée par c T. Et pourquoi c ? Tout simplement parce que chaque BEC offre une distribution dynamique d'oscillateurs 1D émis en nappes 2D à partir du point zéro commun central. L'intervalle radial entre nappes 2D est constant de sorte que se forme un 3D dynamique. Mais comme pour passer d'un intervalle élémentaire à l'autre, il faut toujours passer par le centre du BEC avec la période te (cycle commun entre tachyon et électron). Ainsi la CAUSE de la constante c (4eme dimension) est la suivante : un photon (quantique) ne peut franchir un intervalle élémentaire qu'avec l'aval d'un tachyon (subquantique) franchissant le rayon du BEC entier. Cela revient à dire que les intervalles élémentaires quantiques ne sont connectées qu'à travers le lien subquantique des tachyons. Mine de rien cela répond également à la question : pourquoi les photons se baladent toujours à vitesse c ? La réponse est claire ; ils oscillent dans la même période que les tachyons.

      La localité d'un tachyon est le BEC entier (taille galaxie 10^21 m). La localité d'un photon est la longueur de Compton d'un électron soit 10^-13 m.

      * c'est la clé de la relation connue entre F grave et F coulomb sur une paire électron-positron. Attention l'épaisseur n'est pas nulle mais il n'y a aucun mouvement libre dans cet axe. C'est donc bien une corde 1D.
      ** là aussi variable !

      Supprimer

Enregistrer un commentaire

Posts les plus consultés de ce blog

Présentation du blog

Le but de ce blog est de commenter mon second livre paru en mai 2017 : "Il était une fois l'univers à partir de rien". Ce blog est rattaché à mon site ouvert depuis 2008. Il sera ici question de populariser le modèle d'univers appelé "modèle OSCAR" et ce à grand renfort de pédagogie par le jeu de  diverses analogies courantes.


Ingénieur de 71 ans je me suis spécialisé depuis près de 30 ans dans l'enseignement de la physique tout en développant le modèle OSCAR (Oscillateurs Subquantiques Continus Anharmoniques Reliés).   

Tout part de ces oscillateurs (duaux) qui matérialisent le zéro physique du néant. Ce rien est en fait comparable à une balance romaine qui indique zéro si les deux masses sont identiques. Il est ici question de symétrie. 

En nombre infini, ces zéros physiques représentent un espace non connexe de pré-univers où le désordre est total. (entropie maximale).  On montre ensuite que ces brassages induisent forcément un flux synchronisant q…

Le satellite Planck confirme le modèle OSCAR (2)

Comme promis, voici un détail plus poussé des causes du dipôle de température, mesuré par le satellite Planck. Encore une fois nous allons utiliser le robuste principe de dualité de localité. Le dessin suivant montre les effets pour trois directions différentes, (à partir des trois points : a, b, c) situés sur notre couche d'expansion à 0,5 c. Chaque ligne de vision voyage dans l'espace et donc dans le passé avec une inflexion vers le centre. Dans toutes les directions, les galaxies s'éloignent de nous. Il n'y a pas de lieu privilégié*.
Avant d'aller plus loin, il nous faut définir la notion duale d'horizon cosmologique qui est différente de celle du modèle standard. Sa dualité tient compte du spectre des vitesses (0 à 5 c) :
a) l'horizon cosmologique de localité apparente (HCL), fixé par la longueur de Hubble = 13,8 G.y.l ;
b) l'horizon cosmologique comobile (HCC), qui tient compte des éloignements relatifs, depuis l'origine. Contrairement au …