Affichage des articles dont le libellé est Vidéo. Afficher tous les articles
Affichage des articles dont le libellé est Vidéo. Afficher tous les articles

lundi 21 septembre 2015

Volkswagen a menti sur le taux de pollution de ses diesel

Scandale : Volkswagen (et donc également a priori certains modèles de chez Audi, Seat, Skoda) a menti sur les émissions polluantes de ses modèles diesel vendus aux Etats-Unis en installant un logiciel visant à tromper le contrôle anti-pollution, notamment concernant le Nox (dioxyde d'azote) connu comme facteur aggravant les maladies respiratoires. 11 millions de véhicules sont concernés.
L'amende peut coûter 18 milliards de dollars au constructeur allemand.

Rappelez-vous le scandale de VW à propos des émissions de C02. A l'époque M.Piëch, directeur de VW n'avait pas apprécié cette parodie. Aujourd'hui VW a menti sur le taux de NOX... Ceci dit, VW n'est pas le seul à mentir aux consommateurs...


La question est maintenant de savoir si les modèles vendus en Europe ont fait l'objet des mêmes bidouilles et si c'est le cas, comment le fisc va récupérer l'argent des bonus-malus faussement calculés. On peut supposer qu'il se tournera vers le constructeur. Mais si la taxe est payable annuellement, un jour ou l'autre il est possible que les clients la payeront.
Selon les experts, les moteurs Porsche ne seraient pas concernés ni ceux des Golf VII de 2 litres car ils respectent déjà la norme Euro 6.
Ceci dit, 90% des véhicules diesel ne respectent pas la norme Euro 6 selon le rapport du 14 septembre 2015 de la fédération européenne Transport & Environnement. Parmi les marques concernées il y a Mercedes, Renault, Opel et quelques autres ainsi que BMW qui pourtant est l'entreprise européenne qui fait le plus d'efforts dans ce domaine.
Alors VW ? Bientôt un nouveau logo ? Bien mal acquis ne profite jamais. 
So VW ? Bald ein neues Logo ? Nie unrechtmäßig erworbenen Gewinne.
So VW ? Soon a new logo ? Never ill-gotten profits :-(


jeudi 10 septembre 2015

Découverte d'une nouvelle espèce, l'Homo naledi

Une équipe internationale de chercheurs dirigée par Lee R. Berger de l'Université de Witwatersrand à Johannesburg, a annoncé le 10 septembre 2015 dans le magazine eLife avoir découvert une nouvelle espèce d'homininé baptisée Homo naledi.
En 2013 et 2014, des scientifiques financés par la National Geographic Society ont exhumé dans une caverne d'Afrique du Sud située près de Johannesbourg plus de 1550 ossements appartenant à au moins 15 individus, parmi lesquels des bébés, de jeunes adultes et des personnes plus âgées. Tous présentent une morphologie homogène.
Les squelettes dateraient entre 2.8 et 2.5 millions d'années (à confirmer).

Reconstruction du crâne de l'Homo naledi. Document Wits University/L.Berger/NGS.

samedi 5 septembre 2015

Le cerveau du ventre

Nous avons tous appris sur les bancs d'école que nous avons un cerveau, le cortex, et des organes rassemblés dans les viscères. Le coeur ou le tube digestif est considéré comme faisant partie des viscères, c'est-à-dire réduit à des cavités internes sans cerveau.
Or il y a quelques années, les scientifiques ont découvert que le coeur avait un petit cerveau et plus récemment que la paroi intestinale était couverte de millions de neurones ! Le corps humain dispose ainsi de deux systèmes neuronaux décentralisés dont le rôle était tout à fait insoupçonné il y a encore une génération.
La question est à présent de savoir quelle est la fonction de ces cerveaux et quelle importance jouent-ils vis-à-vis du cortex cérébral : comment communiquent-ils, quelles informations transmettent-ils, lequel arbitre les décisions, lequel fonctionne consciemment ou inconsciemment, quelles sont les effets du dérèglement de l'un ou de l'autre, comment peut-on soigner ces cerveaux décentralisés, etc.
Les deux reportages suivants décrivent ces découvertes étonnantes.


Il y a quelques années, les scientifiques ont découvert que non seulement nous avions des neurones dans les viscères mais que notre intestin abritait cent mille milliards de bactéries !
En d'autres termes, nous avons 100 fois plus de bactéries dans notre ventre que de cellules humaines dans notre corps ! Ces bactéries génèrent environ 30% des calories dont a besoin le corps.
Cette flore intestinale qu'on appelle également le microbiote veille sur notre santé. Il y veille si bien que sa présence influence directement notre façon de vivre et une bonne partie des maladies que nous contractons.
Devant l'importance de son rôle, en 2010 les scientifiques ont dressé le génome complet de toutes ces espèces de bactéries et c'est alors qu'ils ont découvert l'incroyable : le microbiote communique avec le cortex via le nerf vague notamment et est capable de déclencher toute une série de comportements qui jusqu'ici étaient a priori du ressort des maladies nerveuses, dégénératives ou encore dites de "civilisation" (diabète, stress, etc).
Aujourd'hui la vision que les scientifiques ont de notre corps est en train de changer et finalement il s'avère que notre ventre joue peut être un rôle plus important que notre cerveau !
En fait, nous connaissons encore très mal la complexité et le rôle des milliers de gènes, des milliards de neurones et des centaines de milliards de bactéries que nous possédons.
Au fait, n'est-ce pas en Chine dont nul n'ignore la médecine millénaire qui a été validée en Occident, qu'on soigne par la nutrition ?
En fin de compte, la vision holistique qu'à la médecine chinoise du corps humain semble être une approche toute aussi intéressante et en tous cas complémentaire de la médecine occidentale, réductionniste.

mardi 18 août 2015

Earth, la météo dynamique globale par Cameron Beccario

Si vous êtes lassés des cartes météos stylisées, dessinées à grande échelle, incomplètes et mises à jour toutes les 24 heures, vous avez de la chance car nous avons les moyens d'y ajouter la modernité ! 
Certaines chaînes de TV telles La Une, RTL et la BBC notamment l'ont bien compris et utilisent depuis quelques années des animations vectorielles à haute résolution.
L'ère de l'architecture parallèle
Avec le développement des cartes graphiques accélératrices capable d'exploiter la programmation vectorielle 3D en haute définition, des langages de programmation adaptés à ces représentations et de l'architecture et du traitement informatique parallèles, les programmeurs ont la possibilité de créer des applications d'une puissance de calcul encore inimaginable au début des années 2000.

La météo dans tous ses états. Document PSU.
C'est dans ce contexte technologique très élaboré, qu'en 2012 les designers Fernanda Viégas et Martin Wattenberg créèrent la première carte dynamique des vents des Etats-Unis, Wind Map.
Le projet Tokyo Wind Map
L'idée de représenter vectoriellement les variables météorologhiques intéressa Cameron Beccario, un ingénieur informaticien américain qui travailla notamment chez Microsoft et actuellement pour une société privée au Japon.
Son initiative est partie d'un projet personnel d'apprendre le javascript et la programmation des navigateurs Internet. Ses travaux aboutirent au projet Tokyo Wind Map qui affiche la circulation des vents au-dessus du Japon. L'animation est mise à jour toutes les trois heures à partir de données officielles. Le projet est toujours en ligne.

Le projet Tokyo Wind Map de Cameron Beccario.
Fort de cette première expérience et des commentaires enthousiastes des utilisateurs, en 2013 Beccario étendit son projet à la terre entière en tenant compte de variables météorologiques supplémentaires, aboutissant au projet Earth.
Le projet Earth
Earth modélise les paramètres météorologiques, y compris océaniques et les présente de manière dynamique sur un globe terrestre interactif. Tenant compte de milliards de données - ce sont de Big Data -, cette représentation parle évidemment beaucoup plus qu'une carte statique.

Circulation générale des vents en temps différé (3 heures)
Circulation des vents à l'ouest de l'Alaska autour d'une dépression.
Le programme qui ne requiert qu'une connexion Internet et un ordinateur standard permet d'afficher les conditions météos synoptiques et locales partout dans le monde avec une résolution inférieure à 1 km ! Les données sont mises à jour toutes les 3 heures.
On peut agrandir l'image sur une région du monde et choisir un endroit avec une précision géographique de 2' en latitude et 4' en longitude à 50° Nord soit environ 9 km ou 5 milles nautiques.
Le programme affiche la direction des vents, leur force, la température et le degré d'humidité en surface et en altitude, les courants océaniques et leur force, la direction des vagues, la concentration de monoxyde de carbone, de dioxyde de soufre  et l'extinction due aux poussières et aux sulfates.

Carte des températures et des vents en surface.
Carte des courants océaniques et de leur force.
Zoom sur le courant du Gulf stream.
Concentration du dioxyde de soufre en surface.
Earth utilise les données météorologiques et océaniques américaines gérées par le Global Forecast System (NCEP) de la NOAA et du National Weather Service (NWS), les données océaniques de la NOAA et de programmes tels OSCAR pour la force des courants, MMAB, EMC et WAVEWATCH III pour la température de l'eau et la hauteur des vagues, tandis que les données sur les aérosols et la chimie proviennent du NCEP et du satellite GEOS-5 de la NASA.
La vidéo suivante présente la conférence que donna Cameron Beccario sur son projet Earth à l'Université de Manchester dans le cadre du programme "The Graphical Web 2014".


Pour plus d'information
Consultez l'application Earth. Son menu (via le logo "earth") liste les différents modes d'affichage tandis que la rubrique "about" décrit les détails techniques (source des données, code source du logiciel, contact, etc).

mardi 14 juillet 2015

Pluton et Charon : les photos historiques de New Horizons

14 juillet 2015, 11:49 UT  (13h49 à Paris) dans la salle du Mission Control (MOC) du JHUAPL de la mission New Horizons :
- "We are in lock with carrier", annonça Alice Bowman, mission operations manager.
- "Stand by for telemetry...  We are in lock with the telemetry with the spacecraft !"
Les données et notamment les photos en haute résolution de Pluton transmises par la sonde spatiale New Horizons venaient de parvenir au réseau DSN de la NASA, confirmant le succès de la mission ! Aussitôt des cris de joie et des applaudissements retentirent dans la salle de contrôle.
Quelques instants plus tard la NASA annonça que la sonde spatiale New Horizons avait réussi comme prévu son rendez-vous avec Pluton !


Un rendez-vous historique
Les astronomes attendaient cet évènement depuis 1930 et la découverte de la planète naine par Clyde Tombaugh. C'est donc la première fois dans l'histoire de l'astronautique qu'un vaisseau spatial visite Pluton et retransmet des images de sa surface. La résolution des meilleures images est estimée à environ 50 m par pixel !
Pour tous les astronomes, c'est une révélation au point qu'on peut dire sans exagérer qu'on découvre un nouveau monde, et un adorable coeur ! Bienvenue Pluton !

Pluton photographiée le 13 juillet 2015 à 768000 km de distance révélant la fameuse formation claire en forme de coeur. Document JHUAPL.
Située à une distance variant entre 4.43 et 7.37 milliards de km du Soleil (29-49 UA), Pluton, fut longtemps écartée des missions spatiales.
Finalement, après plusieurs reports et sous la pression des scientifiques dont Alan Stern du SwRI, la NASA valida la mission "New Horizons" en 2002 et lui alloua un budget de 650 millions de dollars.
Une fusée Atlas V décolla de KSC le 19 janvier 2006 et fournit l'impulsion nécessaire à la sonde spatiale New Horizons pour rejoindre Pluton qu'elle survola à 13718 km de distance au terme d'un voyage de 9 ans et parcourut 4.8 milliards de kilomètres à 49600 km/h.
La gestion du projet y compris des images a été confiée au Laboratoire de Physique Appliquée de l'Université Johns Hopkins (JHUAPL) avec le support de la NASA et du SwRI.
La sonde spatiale New Horizons
La sonde New Horizons est un bijou de haute technologie et d'intégration. La sonde spatiale pèse 478 kg et consomme moins de 100 watts dont à peine 28 watts pour l'ensemble des sept instruments scientifiques, c'est un record - les sondes Voyager 1 et 2 lancées en 1977 disposaient de 5 instruments, pesaient 825 kg et consommaient 470 watts.


Comme la plupart des sondes d'exploration, New Horizons est alimentée par un générateur thermoélectrique à radioisotope (au plutonium) ou RTG. C'est le boîtier sombre à ailettes formant la "queue" de la sonde spatiale.
Tous les instruments étant fixés sur la même plate-forme et solidaires, New Horizons ne peut pas photographier et en même temps transmettre ses données à la Terre. Les données sont enregistrées dans deux mémoires flash (SSD), d'une capacité de 8 GB chacune et sont ensuite envoyées sous forme groupée vers la Terre.
Ainsi, les images du rendez-vous proprement dit ne seront envoyées que dans quelques heures et il faudra près de 5 heures pour les recevoir et les traiter avant de pouvoir les exploiter.
L'antenne parabolique à haut gain (42 dBi) mesure 2.1 m de diamètre et fonctionne en bande X. Deux antennes backup viennent la seconder en cas de panne (ce qui s'est produit temporairement fin juin 2015). Ce système transmet ses données au réseau DSN, en particulier à l'antenne DSS 43 de 70 m de diamètre de Canberra.
Le signal descendant (downlink) de New Horizons est émis sur 8.44 GHz avec une puissance de 12 W. Alors que le taux de transmission était de 38 kbps lors du rendez-vous avec Jupiter, à la distance de Pluton le taux est tombé à 2.11 kbps. Le signal est reçu 4.5 heures plus tard par le réseau DSN avec une puissance de 3.45x10-22 W, ce qui explique la taille des antennes de réception.
Le réseau DSN envoie ses instructions à la sonde spatiale (uplink) sur la fréquence de 7.18 GHz avec une puissance de 20.01 kW !

Le complexe du réseau DSN de la NASA installé à Canberra en Australie.
Il utilise des antennes de 34 et 70m de diamètre.
La sonde spatiale New Horizons a été conçue pour étudier la géologie globale de Pluton, sa composition et sa température en surface, sa pression atmosphérique, le taux de déperdition calorifique et chimique dans l'espace ainsi que ses satellites naturels dont Charon.
La sonde spatiale New Horizons a été conçue pour étudier la géologie globale de Pluton, sa composition et sa température en surface, sa pression atmosphérique, le taux de déperdition calorifique et chimique dans l'espace ainsi que ses satellites naturels dont Charon.
Dans ce but, New Horizons dispose de 7 instruments d'analyses en plus de son antenne et des systèmes de contrôles (propulseur, système de guidage, système informatique, régulateur thermique, RTG, télécom).
Il y a tout d'abord LORRI, un imager à haute résolution qui a pris les clichés en noir et blanc avec une résolution maximale de 50 m/pixel au plus près de Pluton, "Ralph", un imager multispectral à basse résolution qui permet par exemple de connaître la distribution spectrale et la couleur de Pluton, "Alice" un spectrographe UV qui permet notamment d'analyser la diffusion de la lumière dans l'atmosphère de Pluton, PEPSSI, un spectromètre qui permet de détecter les molécules s'échappant de l'atmosphère de Pluton, complétés par un radiomètre (REX), un détecteur de vent solaire (SWAP) et un compteur de poussière (SDC).

*

Données physiques
Vu de Pluton, le Soleil est 1500 fois plus pâle que sur Terre avec une magnitude visuelle de -19 (contre -26.8 sur Terre). Il reste toutefois plus lumineux que la Lune vue de la Terre (Mv. -12.7), la lumière ambiante ressemblant à celle d'un coucher de soleil terrestre.
Sa surface reçoit 0.008 Watts/cm², portant sa surface à une température maximale de -203°C, 37°C plus chaude qu'un objet plongé dans l'ombre. Recevant si peu d'énergie, Pluton doit être plongé dans un profond isolement.
La grande inconnue concernait l'atmosphère de Pluton. A plus de 5 milliards de kilomètres du Soleil, tout le gaz contenu dans l'atmosphère de Pluton se condense et tombe en neige sur le sol comme l'illustre la simulation suivante réalisée par Mark Garlick. Dans ces conditions il est impossible de déceler quoi ce soit dans son atmosphère.


La photographie de sa surface n'est possible que si l'hémisphère survolée par la sonde New Horizons est éclairée par le Soleil et n'est pas obscurcie par l'ombre du satellite Charon, ce qui se produira vers 2020. Les astronomes ont donc eu beaucoup de chance de pouvoir planifier cette mission vers Pluton.
L'atmosphère
Actuellement et jusqu'en 2020 environ, Pluton est suffisamment proche du Soleil pour présenter une atmosphère. Elle est principalement composée d'azote (~90%) et d'environ 10% de monoxyde de carbone. Elle contient également du méthane mélangé à de l'ammoniac, du dioxyde de carbone, de l'argon et de l'oxygène. De l'acide cyanhydrique (HCN) a également été détecté ainsi que de l'hydrogène libre.
En raison de la faible masse de Pluton et de la légèreté des gaz, son atmosphère est très ténue avec une pression au sol de 0.2 à 0.3 Pa soit 0.003 mbars; elle est un million de fois inférieure à celle que nous connaissons en bordure de mer (1013 HPa).

Document JHUAPL adapté par l'auteur.
L'atmosphère de Pluton est aussi beaucoup plus étendue que celle de la Terre. L'exobase se situe vers à plus de 8000 km d'altitude (contre 600 km sur Terre) tandis que l'exosphère commence vers 9600 km d'altitude. La troposphère s'étend sur 40 km (contre ~10 km sur Terre).
La présence de méthane, un puissant gaz à effet de serre, augmente la température de l'atmosphère qui atteint -173°C en haute altitude où la pression atteint 3 Pa vers 100 km d'altitude.
Enfin, le vent solaire et le rayonnement UV interagissent avec l'atmosphère supérieure (l'exosphère) de Pluton; les molécules s'ionisent, sont entraînées par le champ de force du vent solaire et sa vitesse à tendance à décroître.

Schéma montrant les interactions entre les hémisphères éclairées et obscures de Pluton et la migration des substances volatiles qui s'en suit ainsi que sa structure géologique interne probable. Document J.Spencer.Lowell./Nature adapté par l'auteur.
Spéculations
En raison de la différente de température entre la haute et la basse atmosphère ainsi qu'entre les hautes et basses pressions, bien qu'ils n'aient pas encore été mesurés, il est probable que des vents soufflent sur Pluton. Leur force augmente au périhélie (lorsque Pluton est au plus près du Soleil).
Mais contrairement à la Terre, sur Pluton il n'existerait qu'un gradient horizontal de pression et de température. On estime la vitesse des vents en surface à 37 km/h.
Selon certains modèles utilisés pour Mars, ils pourraient atteindre 360 km/h en haute altitude où il n'y a plus d'effet de friction entre l'air et la surface.
Ces vents participeraient également à la redistribution de la glace sur la surface de Pluton. Tout ceci reste à confirmer.

Aspect d'un éventuel cryovolcan sur Pluton. Sa découverte serait un évènement majeur.
Document T.Lombry.
Si les scientifiques ont observé peu de changements dans la haute atmosphère de Pluton entre 1988 et 2013, en revanche, la basse atmosphère s'est épaissie et sa pression a augmenté ainsi que la couche de brume en surface. Ces changements extrêmes peuvent être provoqués par le cryovolcanisme. Mais aucun geyser, aucune fumée n'a encore été détectée.
On pourrait également observer des formations nuageuses et de la brume très près du sol ainsi que de la neige constituée de très petits flocons (les particules condensées ne mesurant qu'environ un micron), même si la probabilité est faible.
De même, il est possible qu'on observe des aurores sur Pluton, mais les chances sont minces car il est difficile de détecter sa magnétosphère ainsi que son ionosphère de même que l'éventuelle interaction avec le vent solaire indispensable à 10 rayons de Pluton. Nous en saurons probablement plus dans les prochains jours.
Géologie
Les géologues et les planétologues attendaient impatiemment les premières photographies de Pluton et les données scientifiques; ils n'ont pas été déçus.

Le couple Pluton-Charon photographié par la sonde New Horizons le 11 juillet 2015 à 4 millions de kilomètres de distance. Il s'agit du montage de deux photographies colorisées à partir des données de l'instrument Ralph. Document JHUAPL.
Les nouvelles mesures effectuées par New Horizons indiquent que Pluton mesure 2370 km de diamètre soit 18.5% de la Terre. Cette planète naine est donc bien plus petite que la Lune (3474 km).
Pluton présente une densité de 2.03. Elle serait composée d'environ 70% de roches et de 30% de glace. La gravité au sol atteint 0.58g.
Sur Pluton la vitesse de libération à l'équateur est réduite à 1.22 km/s (contre 11.2 km/s sur Terre et 2.4 km/s sur la Lune).
Comme prévu, la surface de Pluton est apparue très contrastée. Elle est constituée de silicates et présente un albedo variant entre 0.49 et 0.66, ce qui s'explique par la présence d'une grande couverture de glace.
Elle est composée à 98% d'azote et contient des traces de méthane et de monoxyde de carbone, vraisemblablement précipités de l'atmosphère.
Dans ces contrées reculées du système solaire, le méthane est refroidit à -203°C, 70 K, mais subit de forte variations en raison de l'excentricité de l'orbite de Pluton. En surface, la température peut descendre à -240°C !
Pluton dispose de deux calottes polaires et d'une région centrale plus sombre et très accidentée. La calotte polaire Nord paraît plus importante que celle de l'hémisphère Sud, elle contient également d'importantes quantités de méthane. En revanche, vue de la Terre, la calotte polaire sud est plus brillante.


Comme on le voit sur les photographies, Pluton présente de grandes étendues claires et très sombres bien délimitées, de vastes régions montagneuses, des crêtes, des pics et de grandes failles ainsi que quelques très grands cratères présentant un piton central.
Toutefois sa surface n'est pas criblée de cratères comme l'est la Lune par exemple, ce qui signifie que sa surface a été remodelée récemment. Selon les chercheurs, les montagnes se sont formées il y a plus de 100 millions d'années, soit très récemment comparé à l'âge du système solaire.

Pluton photographiée le 12 juillet 2015 à 2.5 millions de kilomètres de distance.
Les montagnes sont vraisemblablement constituées de roches mêlées de glace de méthane et d'azote, des matériaux qui ne sont pas assez résistants pour former de hautes montagnes. En revanche, la glace peut former des pics comme on le voit sur les photos.
Actuellement, on ignore si Pluton dispose d'un faible champ magnétique et d'une ionosphère. Nous en saurons certainement plus dans les semaines et mois qui viennent.
Le satellite Charon
Pluton est entouré de cinq satellites naturels dont Charon qui mesure  1208 km de diamètre (9.5% de la Terre). Il orbite à 19640 km de Pluton, les deux astres gravitant autour de leur barycentre commun.
Bien que formé en même temps que Pluton il y a plusieurs milliards d'années, Charon est tout différent avec une surface très sombre (albédo compris entre 0.32-0.39) et beaucoup plus rouge, similaire à celle des astéroïdes. Il perd son atmosphère au profit de celle de Pluton.
Les premières photographies montrent que Charon présente un profond canyon de 6 à 10 km de profondeur ainsi que des fosses et des falaises mais relativement peu de grands cratères.

Charon photographié le 13 juillet 2014 à 466000 kilomètres de distance.
L'avenir
Malheureusement aucune nouvelle mission n'est envisagée vers Pluton. Les photos que nous avons reçues seront donc les seules à notre disposition durant les prochaines décennies sinon davantage. Elles ont d'autant plus de valeurs.
Cela ne signifie pas que la mission de New Horizons soit terminée; elle doit encore atteindre les faubourgs de la Ceinture de Kuiper située à 500 U.A. du Soleil qu'elle rejoindra vers 2026 si entre-temps elle ne subit aucun dommage.
En effet, si cette région éloignée du système solaire est très isolée, elle contient malgré tout des astéroïdes, transneptuniens et autres KBO, qui une (mal)chance sur 8000 de percuter la sonde spatiale.

Le rendez-vous historique avec Pluton. Document T.Lombry.
Mais dans les années à venir les scientifiques ont des projets plus ambitieux et urgents comme la construction de la future base lunaire envisagée après 2020, l'exploration de Mars vers 2035, et plus modestement l'exploration in situ du satellite Europe de Jupiter parmi d'autres projets.
Il est temps à présent de mettre à jour tous les livres d'astronomie et de remplacer les vieilles photos stellaires ou les dessins jaunis de Pluton par de belles photos en haute résolution. Avis aux auteurs.
Pour plus d'informations
JHUAPL
NASA
Alan Stern, SwRi
Consultez l'article consacré à Pluton pour plus de détails.

samedi 11 juillet 2015

Pluton entre imagination et réalité

Dans 2 jours et 19 heures, la sonde spatiale New Horizons survolera Pluton à 11000 km de distance, une première dans l'histoire de l'astronomie. Ne manquez pas cet évènement car j'ai l'impression que nous ne revisiterons plus Pluton avant très longtemps...
A quoi peut rassembler la surface de Pluton ? A l'heure où ces lignes sont rédigées personne ne le sait exactement. On ignore si sa surface est couverte de glace par exemple ou de roches, si elle est très accidentée ou plutôt lisse, pas plus que sa véritable couleur. On ignore également si son atmosphère est colorée, s'il neige du méthane ou s'il y a des geysers. Nous avons bien des indices, mais il en faut plus pour bâtir des théories.
Les illustrateurs ont donc encore quelques jours pour donner libre cours à leur imagination.
Voici par exemple comment j'imagine Pluton en présence de son plus gros satellite Charon :








Selon Ron Miller :


Selon Don Davis :


Selon Mark Garlick :


Selon Luis Calçada :


Selon David A. Hardy :


Réponse officielle : patientez jusqu'au 14 juillet 2015 après-midi lorsque le JPL recevra les images de la sonde spatiale New Horizons.
Même si elle ne transmettra pas ce type d'images, elle sera suffisamment près pour qu'on puisse examiner son relief en détails (distribution et taille des cratères, des montagnes et des failles) et détecter la présence éventuelle de brume au sol. D'autres instruments permettront de déterminer avec précision la composition de sa légère atmosphère, l'existence d'éventuels d'aérosols et d'un champ magnétique.


En attendant, voici trois photographies révélant le relief de Pluton, notamment ce qui ressemble à une chaîne de montagne traversant l'hémisphère à hauteur de l'équateur ainsi que des régions complexes et localement polygonales bordées de bandes sombres et de failles.
Les photos ont été prises avec la caméra LORRI (LOng Range Reconnaissance Imager) et colorisées à partir des données de l'imager multispectral Ralph.

Pluton photographiée le 11 juin 2015 à 4 millions de kilomètres de distance par la sonde spatiale New Horizons. Document JHUAPL.
Pluton photographiée le 9 juin 2015 à 5.4 millions de kilomètres de distance et centré sur la longitude de 19°.
Pluton photographié le 8 juillet 2015 à 8 millions de kilomètres de distance et centé sur la longitude de 133°.
Vous trouverez d'autres illustrations dans ma page "Alien Worlds".

mardi 7 juillet 2015

Miss météo

Internet a découvert une miss météo mexicaine...
On se demande pourquoi le commentateur australien (Ozzy man) a fini par abandonner. Oui, it's fun comme il dit !

 

Je ne suis pas sûr que tout le monde a retenu les mêmes nombres où les a mêmes lus. Et vous ?! Trois c'est déjà parfait. Oulala !

vendredi 3 juillet 2015

L'envol des raies mobula

Nous savons que les raies manta (manta birostris) et les raies mobula (Mobula mobular), sa cousine, surnommés "diables des mers", sont des poissons très agiles; elles peuvent éviter des plongeurs en se cabrant à angle droit ou virer sur l'aile pour éviter un obstacle.
Ceci dit, il existe peu de vidéos où on les voit vraiment s'amuser, et ce n'est pas un point de vue anthropocentrique.
Voici trois vidéos étonnantes prises dans la mer de Cortez, au large de Baja California, en 2011 et 2012. Un banc de raies mobula s'amuse à bondir hors de l'eau.
Notons que si la raie manta est un animal solitaire, la raie mobila se déplace en banc, ce qui explique le grand nombre d'individus sur ces vidéos.


On ignore pourquoi ces raies effectuent ces acrobaties. Mais il semble que certaines d'entre elles effectent ces bonds en bordure des bancs de poissons qu'elles veulent maintenir bien serrés comme on le voit dans la vidéo suivante.
Pour confirmer qu'il s'agit bien d'un jeu pour certaines d'entre elles, à la fin de la vidéo suivante (1:58), une manta s'amuse même à faire un looping ! Elle ne le ferait pas si elle n'y trouvait pas du plaisir.



Enfin, voici un banc comprenant des dizaines de milliers de raies mobula s'adonnant au même jeu.

vendredi 19 juin 2015

Reconstitution de la Bataille de Waterloo

A partir de 20 heure, les 19 et 20 juin 2015, si vous n'avez pas eu la chance d'acheter un ticket, vous pouvez suivre en live streaming (prix de la souscription de 7.5€) la reconstitution de la Bataille de Waterloo, la plus grande reconstitution en Europe.
Ceci dit, la Une (RTBF) va retransmettre en direct une partie de la bataille.


Au-delà des préjugés de certains Français jusqu'aux plus haut niveau du Pouvoir qui ont la mémoire courte et oublient un peu vite à qui ils doivent leurs libertés et les principes de la République, rappelons qu'il s'agit d'une bataille qui marqua la fin d'une époque et d'un règne mais également la naissance d'une ère nouvelle pour l'Europe.
Plus de 100000 personnes venues de toute l’Europe sont attendues ce weekend sur le site de Waterloo pour commémorer cette bataille emblématique.
Quelque 4200 soldats, 300 cavaliers et 500 accompagnants allemands, belges, britanniques, néerlandais, russes et quelques trop rares français participeront à cette reconstitution historique.
Un must à voir !

L'Histoire d'une bataille


A part quelques petites erreurs quant au nombre de fantassins (124000 à 190000 selon les sources et non pas 250000 bien que le nombre de 130000 soit également indiqué), cavaliers (25000 et non pas 100000) et canons (400 et non pas 900) qui font que ce document déplaît à quelques Français orgueilleux, voici un second documentaire très bien illustré.

samedi 11 avril 2015

Le trou noir

Un peu d'humour par Phil et Olly où quand une personne dépravée découvre un trou noir...

Quand on vous disait qu'un trou noir est dangereux...

mardi 17 mars 2015

Vol sur le dos d'un aigle à Dubaï

Voici une vidéo étonnante prise sur le dos d'un aigle pygargue à queue blanche. Il s'agit d'un vol d'exhibition qui fut organisé le 14 mars 2015 à Dubaï par Freedom et son aigle baptisé "Darshan" à la demande du prince héritier de Dubaï.
Equipé d'une caméra HD pesant 300 g soit 10% du poids de l'oiseau, l'aigle s'envole du sommet du plus haut building du monde, la tour Burj Khalifa culminant à 830 mètres, et effectue un petit tour panoramique. Il prend ensuite ses repères puis reconnaît la cible (le carré rouge). Il se positionne alors en vol piqué (on voit clairement qu'il replie ses ailes) et plonge à environ 80 m/s soit environ 288 km/h vers le bras de son entraîneur sur lequel il se pose en douceur. Magnifique. C'est un record mondial.
Notons qu'un aigle royal peut voler à 160 km/h (44 m/s) et effectue des piqués à 300 km/h (83 m/s). Seul le faucon pèlerin est plus rapide (piqué à 400 km/h).



Les préparatifs :



Freedom, de son vrai nom Jacques-Olivier Travers, est un fauconnier français qui élève des rapaces depuis de nombreuses années. 
A 24 ans, il a fondé le parc des Aigles du Léman à Sciez, en Haute-Savoie, où il élève 120 rapaces de 35 espèces.
Parmi ses plus beaux résultats, avec son équipe il est parvenu à libérer plusieurs aigles qui avaient toujours vécus en captivité et n'avaient jamais appris à voler ni à chasser.
Au bout de plusieurs mois d'entraînement individuels, les aigles ont fini par maîtriser le vol et se nourrir seuls, certains ont même trouvé une compagne et pris leur indépendance, à la plus grande joie de Jacques-Olivier et des amoureux des rapaces.
Dans le cas de Darshan, l'aigle a été entraîné pendant 2 ans et Jacques-Olivier le présente régulièrement lors d'exhibitions.
Un reportage sur Jacques-Olivier et son aigle Victor est actuellement diffusé sur Ushuaïa TV. Vous trouverez également un compte-rendu sur le site du Parisien.

vendredi 27 février 2015

Léonard Nimoy est décédé (1931-2015)

L'acteur, réalisateur, producteur, photographe et chanteur américain Léonard Nimoy est décédé le 27 février 2015 à 83 ans à Los Angeles d'une maladie pulmonaire chronique liée à son tabagisme passé.
Biographie
Léonard Nimoy est né le 26 mars 1931 à Boston, Massachusetts. Ses parents étaient des immigrés juifs orthodoxes ukrainiens. Son père était barbier et sa mère femme au foyer.
Léonard monta sur les planches du théâtre dès l'âge de 8 ans et signa son premier rôle à Hollywood à 20 ans.
Sa biographie est très riche de son métier d'acteur et de réalisateur. Il joua dans 111 films dont une majorité adaptés au petit écran, dans quelques courts métrages et une bonne dizaine de longs métrages.
Léonard Nimoy assura son premier rôle en 1951 dans le film "Queen for a Day" d'Arthur Lubin. Il joua ensuite dans plus de 70 séries TV (dont plus de la moitié dans les années '60), dont "La Quatrième Dimension", "Mission: Impossible", "Le Virginien", "Max la menace", "Au-delà du réel", "Columbo", "Invasion America", "Fringe", "Comedy Central Roast" où il joue auprès de son ami William Shatner et bien sûr dans "Star Trek".
On le retrouve également dans les films "Deathwatch" (1966), "L'invasion des profanateurs" (1978) et "Le meilleur des mondes" (1998).
Il prêta également sa voix à divers personnages, notamment dans les films "L'Atlantide, l'empire perdu" (la voix du roi Atlante), "Le monde (presque) perdu" (voix de Zarn), "Drôles d'oiseaux" (voix de Sekhuru), "Transformers" (Galvatron) et "Transformers 3" (Sentinel prime), ainsi qu'à des dessins animés (The Simpsons) et plusieurs jeux vidéos (Seaman, Civilization IV, Kingdom Hearts: Birth by Sleep, Star Trek Online, etc).

Première apparition des héros de "Star Trek" dans les médias le 4 mars 1967.
Léonard Nimoy apparut pour la dernière fois au cinéma en 2013 sous les traits de Mr. Spock Prime, dans le 9eme film de la saga : "Star Trek: Into Darkness" de J.J. Abrams.
Léonard Nimoy réalisa surtout 12 films dont les "Star Trek" III et IV et certains épisodes de quatre séries TV (Night Gallery, Vincent, Matthew Star et Hooker) et fut scénariste sur "Star Trek, le film" ainsi que les "Star Trek" III, IV et VI.
Il sortit également 5 albums de musique pop, folk et country et était passionné de photographie.
Léonard Nimoy publia également deux livres biographiques "I Am Not Spock" en 1975 et réédité en 1997 et "I Am Spock" en 1995.
Tous les lecteurs jugent que ces deux livres sont très bien écrits, intéressants et plaisant à lire. Il n'y a pas de scandales ni d'attaques personnelles, juste l'expression du plaisir qu'un acteur ressent en jouant la comédie ou en dirigeant les acteurs quand il passa derrière la caméra.
"Longue vie et prospérité" aurait déclaré Mr.Spock. Mais aujourd'hui il aurait sans doute trouvé cela "très illogique" et "la fin parfaitement prévisible. La mort est la suite logique de cet éventualité". Léonard Nimoy va nous manquer.

Document Reuters.
La physique de Star Trek
Celui qui incarna "Mr Spock" dans la série "Star Trek" était devenu une icône pour toute une génération passionnée de science-fiction mais également de science.
En effet, bien plus qu'une série divertissante, "Star Trek" a inspiré des vocations artistiques mais également scientifiques, notamment des astronomes, des physiciens et des ingénieurs en astronautique comme l'a rappelé la NASA. Ce n'est pour rien que la première navette spatiale a été baptisée "Enterprise" !
Loin d'être délaissée par la communauté scientifique, rappelons que des ingénieurs et des chercheurs ont été inspirés ou ont collaboré à "Star Trek" afin de rendre sinon les aventures du moins les concepts et les techniques aussi plausibles que possible.
L'ingénieur expert en astronomie André Bormanis et le physicien théoricien Michio Kaku ont été consultants sur la série TV tandis que Lawrence Krauss, également physicien théoricien, a écrit un livre sur "La Physique de Star Trek".
Citons également Harold G. White, ingénieur de la NASA qui étudia un vaisseau spatial à déformation spatio-temporelle ou "warp drive" (cf. cette vidéo sur YouTube) qu'il baptisa "IXS Entreprise".

Présentation de la navette spatiale "Enterprise" le 17 septembre 1976 sur la base de Palmdale, en Californie.
A l'avant-plan on reconnaît Leonard Nimoy, George Takei, Kelly DeForest et James Doohan.
Les scénaristes de "Star Trek" ont inventé un vaisseau spatial et des technologies qui en 1966 étaient très en avance sur leur temps et le restent encore 50 ans plus tard.
Ainsi la propulsion à antimatière, le warp drive (déformation spatio-temporelle), la téléportation, le cloaking device (l'invisibilité) et les androïdes resteront pour longtemps de la science-fiction.
On sait comment cela fonctionne en théorie et il y a des avancées scientifiques dans certains de ces domaines mais à un échelle très modeste. En revanche, l'application de ces concepts requiert des technologies que nous ne possédons pas encore.

Le communicateur de "Star Trek" est l'ancêtre de notre GSM et de la smartwatch.
Extrait de "Star Trek, le film" sorti en 1979.
Même les personnages androïdes de "V-ger" et "Data" resteront pour longtemps de la science-fiction malgré tous les efforts du DARPA, de Honda et IBM parmi d'autres pour fabriquer des robots et des ordinateurs intelligents.
En revanche, le communicateur portable est l'ancêtre du GSM et de la smartwatch, l'ordinateur de bord est l'ancêtre de nos bases de données en ligne combinées aux Big Data et au réseau de satellites, autant de concepts qui sont devenus réalité, même si leur encombrant ferait sourire Scotty, l'ingénieur en chef de "Star Trek".
D'ailleurs les nouvelles séries "Star Trek - The New Generation" (1987-1994), "Deep Space Nine" (1993-1999) et "Voyager" (1995-2001) usent et abusent de concepts issus tout droit des récentes découvertes en astrophysique, en physique quantique et en cybernétique : trous noirs, énergie sombre, théorie des cordes, boucle temporelle, androïdes, etc.
Enfin, si la science-fiction n'a jamais vraiment passionné le public francophone, à côté du phénomène médiatique, "Star Trek" reste un phénomène de société avec près de 3.5 millions de fans anglophiles sur Facebook.



En hommage au célèbre "Mr Spock", voici l'histoire de "Star Trek". Retour sur une série culte.

*

*

*


Pour plus d'informations
Leonard Nimoy, site officiel
Leonard Nimoy's Life in Pictures, AP Images
Filmographie de Léonard Nimoy, IMDb
Filmographie de Léonard Nimoy, Aveleyman
Star Trek, site officiel
Star Trek et la NASA, Cité de l'Espace (avec vidéos)
Leonard Nimoy, Wikipedia
La téléportation, Luxorion
Star Trek sur Facebook
La Physique de Star Trek, Lawrence Krauss, Bayard jeunesse-Science, 1998
NASA Remembers Leonard Nimoy
Leonard Nimoy: The Origin of Spock's Greeting, YouTube
NASA unveils its warp drive concept spaceship IXS Enterprise (concept de Harold G.White)
I am Not Spock, Leonard Nimoy, Buccaneer Books, 1975/1997
I am Spock, Leonard Nimoy, Hyperion, 1995.

samedi 14 février 2015

Un anneau de diamant dans le ciel

A l'occasion de la Saint Valentin, plus d'un amoureux vont offrir une belle bague à leur bien-aimée.
Si vous levez la tête au ciel, vous avez la possibilité de voir un anneau de diamant très original.
En 2014, le télescope VLT (8.20m) de l'ESO installé sur mont Paranal au Chili a photographié en haute résolution la nébuleuse planétaire Abell 33
Située dans la constellation de l'Hydre, à 2700 années-lumière du Soleil, c'est une petite nébuleuse circulaire de 4.5' de diamètre brillant faiblement à la magnitude 13.4. Elle se situe juste à côté de l'étoile blanche HD 83535 de classe spectrale A1 V de magnitude 7.21 (coord. AD: 9h 39.1m, Déc: -2° 50.4').
Voici une vidéo de ce joyau céleste.

Document ESO/Digitized Sky Survey 2/M. Kornmesser.

La nébuleuse n'est visible que dans un télescope d'au moins 250 mm d'ouverture et plus facilement sous filtre à bande passante étroite (par ex. OIII). Sa couleur bleue n'apparaît que sur les photographies.
Par le plus grand des hasards, la brillance de sa surface n'est pas uniforme et est légèrement plus contrastée du côté sud-ouest (secteur 90-185°), où se situe l'étoile.
Cette nébuleuse à laquelle ressemble également Abell 39, n'a rien de particulier si ce n'est qu'elle est parfaitement circulaire et par un effet de perspective l'étoile est placée juste sur son périmètre extérieur, rappelant une bague sertie d'un diamant.

Le champ d'Abell 33. L'étoile orange est Iota Hydra visible à l'oeil nu (Mv.3.91). Document ESO/DSS2.
Comme toutes les nébuleuses planétaires, Abell 33 s'est formée suite à l’expulsion des couches superficielles d'une étoile semblable au Soleil qui s'est transformée en étoile naine et sur le point de mourir. Elle apparaît sur l’image comme un petit point blanc près du centre de la nébuleuse.
La nébuleuse brille grâce aux intenses rayonnements ultraviolets émis par l'étoile naine. D'ici quelques centaines de milliers d'années, quand l'étoile se refroidira, elle cessera d'émettre ce rayonnement UV intense et par la même occasion la nébuleuse ne sera plus excitée électroniquement et disparaîtra au regard des observateurs.
A voir : Les coeurs de Mars (photos authentiques).

vendredi 13 février 2015

Quand Obama fait le clown pour la bonne cause

Voici ce que fait le président Barack Obama quand on lui laisse le temps de vivre.


Effectivement, il fait comme tout le monde !
En fait c'est une publicité pour son programme de santé Obamacare.
A voir également à propos de la vie quotidienne du Président Obama :

mercredi 11 février 2015

Planck renforce la théorie du Big Bang inflationnaire

L'équipe scientifique de la mission Planck de l'ESA vient de publier ses résultats complets, révélant une vue remarquablement détaillée de l'Univers et de notre Galaxie. Voici l'aspect du ciel comme vous ne l'avez jamais vu, tel qu'il était environ 380000 ans après le Big Bang, c'est-à-dire il y a 13.4 milliards d'années, lorsque l'univers était 1100 fois plus petit qu'aujourd'hui.

Les données complètes de la mission Planck publiée en février 2015 fournissent une carte précise de la polarisation (au-dessus) et de la température (en-dessous) du fond diffus cosmologique micro-onde à travers tout le ciel. Les données mesurées par Planck montrent des fluctuations aussi faibles que 2 microKelvin (2 millionième de degré). Précisons que l'empreinte de la Voie Lactée a été retirée de ces données mais elle fut également exploitée par les astrophysiciens. Document Planck - collaboration ESA.
La mission Planck et l'écho du Big Bang 
Le satellite Planck fut lancé en 2009 par l'ESA pour étudier le fond de rayonnement diffus cosmologique micro-onde (CMB en anglais) à 2.7 K également appelé le rayonnement "fossile" émis au cours de la naissance de l'Univers. Ceci demande une explication.
Par analogie, quand une explosion se produit, à mesure que le temps passe le son et la température du phénomène diminuent.
L'Univers connut un phénomène analogue à l'exception qu'il ne s'est pas produit dans une enceinte. Aujourd'hui, la température moyenne de l'Univers est tombée précisément à 2.72548 ±0.00057 K soit environ -270.4°C, un froid glacial. Cette température est isotrope et donc indépendante de l'endroit du ciel ou plutôt de l'orientation dans laquelle on la mesure.
Le satellite Planck.
Mais mieux que cela, cette courbe de température épouse parfaitement la courbe d'énergie d'un corps noir porté à la même température, renforçant la confiance des scientifiques en leurs théories.
Cela signifie également que cette température est indépendante de la nature de la matière ou de l'énergie l'ayant émise.
Ce rayonnement diffus cosmologique c'est-à-dire consécutif à la création de l'Univers, résulte de la dégradation d'une température initiale de 3000 K émise il y a 380000 ans, à l'époque dite du découplage, lorsque l'Univers devint transparent au rayonnement et que la matière a pu se forrmer.
A cette époque, l'Univers avait 0.1% de sa taille actuelle et contenait encore 1 milliard de photons (rayonnement) pour chaque proton (de matière). Ceux-ci avaient une énergie de repos de 0.94 GeV, autrement dit aussi puissante que celle des rayons gamma. Autrement dit, pratiquement rien ne pouvait survivre à cette époque où le rayonnement était encore bien trop intense.
Mais il a suffit que l'Univers grandisse encore un peu et se refroidisse un tout petit peu afin que l'énergie des photons se dégrade d'1 eV pour que la matière prenne le pas sur le rayonnement et que l'Univers permette l'élaboration de la matière, qu'il se matérialise avec son cortège de nébuleuses, étoiles, galaxies et planètes jusqu'à créer la vie complexe.
Ce modèle d'Univers appelé le modèle du Big Bang a été renforcé par les résultats des missions COBE (1992), WMAP (2012) et aujourd'hui Planck.
Les mesures effectuées par Planck sont 30 fois plus précises que celles de WMAP et 1000 fois plus précises que celles COBE.
On peut donc dire aujourd'hui avec certitude que le Big Bang a eu lieu, quelle fut sa température et son niveau d'énergie parmi d'autres paramètres.
Cela signifie également que les théories alternatives (modèle quasi-stationnaire HBN, de la création continue, de la lumière fatiguée ou encore l'univers META et son antimatière parmi d'autres) doivent être abandonnées.
Reste en théorie dans la course, certains modèles exotiques faisant par exemple appel aux supercordes et aux théories membranaires (théorie M, etc) pour tenter d'unifier la relativité générale et la physique quantique et peut-être comprendre ce qui s'est produit à l'instant ou même avant le Big Bang. Mais ceci est une autre histoire.
La théorie du Big Bang
En attendant d'inventer cette théorie plus générale, la théorie du Big Bang représente aujourd'hui le modèle Standard de la cosmologie.
Il se développa à partir de 1934 mais il fut surtout popularisé à partir 1976 par le physicien Steven Weinberg de l’Université d'Harvard grâce à son fameux livre "Les trois premières minutes de l'Univers" toujours disponible.
Planck a cartographié le ciel à neuf fréquences thermiques et sept de polarisation comprises entre 30 et 857 GHz avec une résolution angulaire variant entre 5°' et 5' selon la fréquence. Il cessa de fonctionner quatre ans plus tard, fin 2013.
Les fluctuations de densité qu'on observe dans la carte du rayonnement à 2.7 K représentent les germes de croissance des futures grandes structures cosmiques que sont aujourd'hui les superamas de galaxies reliés entre eux par d'immenses ponts de matière, l'ensemble étant enveloppé dans une masse d'énergie sombre indétectable.
En essayant de comprendre pourquoi le rayonnement cosmologique micro-onde présente cet aspect irrégulier à grande échelle, les cosmologistes et les physiciens peuvent mieux comprendre l’entièreté du processus cosmique et affiner les contraintes sur leurs modèles.


Les limites du modèle cosmologique Standard
En cosmologie, les scientifiques s'intéressent à l'évolution de l'Univers et essentiellement aux premiers instants de sa genèse car dans une certaine mesure, elle peut faire l'objet d'expériences.
A cette époque reculée, les évènements n'avaient pas grand chose à voir avec ce qu'on observe aujourd'hui dans la vie de tous les jours.
Dans l'Univers primordial à l'époque étudiée par Planck, le niveau d'énergie était intense (~1 GeV), la chaleur infernale (6000 K), l'Univers était opaque et les particules animées d'une vitesse relativiste. Bref, les évènements se déroulant à l'échelle subatomique étaient extrêmement rapides et violents et seules les lois de la physique quantique alliées à celles la relativité générale s'appliquaient.
Aujourd'hui, ces lois s'appliquent encore mais soit elles portent leur influence à l'échelle subatomique ou au contraire à grande échelle (globale)soit elles sont "écrasées" par des forces locales beaucoup plus intenses comme les liaisons fortes interatomiques ou les liaisons chimiques au sein des molécules.
Mais à cette époque reculée, tout baignait encore dans une sorte de soupe de  plasma (des particules pratiquement élémentaires) et d'énergie gamma opaque et peu dense, contenant 75% de noyaux d'hydrogène (des hélions ou particules alpha) et des électrons ainsi que d'innombrables neutrinos et d'autres particules élémentaires (quarks, etc., mais a priori rien "d'exotique" au grand dam de certains théoriciens).
Mais inventé voici plusieurs décennies à une époque où on imaginait encore l'Univers comme étant assez simple, ce modèle cosmologique Standard souffre aujourd'hui de quelques défauts.
Il ne "fonctionne" qu'à partir d'environ 10-35 secondes après le Big Bang et n'accepte pas d'autres structures mathématiques que les équations de champ de la relativité générale ni d'autres particules élémentaires que les quarks, les leptons (électron, neutrinos, muon, etc.) et une poignée de bosons (photon, graviton, etc).
Or l'observation et l'étude de l'Univers à haute énergie contredisent ce résultat; il existe d'autres types de particules dont potentiellement tout un bestiaire de particules supersymétriques et des entités de dimensions supérieures (branes, etc).
Ce modèle ne répond donc que partiellement à l'unification des forces développée dans les théories de Grande Unification (GUT et autre TOE) qui étudient vraiment les tout premiers instants de l'Univers.
De plus, la théorie du Big Bang est incapable d'expliquer ce qui a provoqué le "bang" et ce qui a fait "bang", ni pourquoi l'Univers a le même aspect dans toutes les directions, pourquoi la densité actuelle de l'Univers est si proche de 1 alors qu'elle aurait pu avoir n'importe quelle valeur, pourquoi l'Univers paraît si plat ou pourquoi les constantes fondamentales ont des valeurs si finement ajustées, etc.
Pour espérer résoudre toutes ces énigmes, il fallait donc amender le modèle Standard du Big Bang.


Le modèle cosmologique lambda-CDM
La théorie du Big Bang a été affinée et complétée pour que les physiciens et les cosmologistes puissent étudier ce qui s'est passé au commencement de l'Univers, c'est-à-dire si possible (et s'il existe) jusqu'au temps "0", notamment grâce au modèle baptisé lambda-CDM.
Lambda-CDM est le plus simple modèle d'univers inflationnaire, un univers plat contenant de la matière sombre et froide (Cold Dark Matter) et une constante cosmologique, lambda.
"Lambda" est la fameuse constante cosmologique d'Einstein qu'il ajouta à sa théorie de la relativité générale en 1917 avant de la considérer comme une erreur en 1929 lorsque Edwin Hubble découvrit la récession des galaxies, leur fuite apparente vers les confins de l'Univers.
Selon l'équation de champ d'Einstein, une valeur non nulle de lambda représente une densité d'énergie du vide non nulle (on parle de "faux vide" pour le différencier du vide classique).
Aujourd'hui, la plupart des cosmologistes se réfèrent à une autre constante cosmologique "lambda" qui joue un tout autre rôle en accélérant le taux d'expansion de l'Univers par le biais d'une énergie sombre et inconnue qui semble envahir l'espace.
En soi l'association  de "lambda" à l'une ou l'autre forme d'énergie permet de mettre les modèles d'Univers en concurrence, jusqu'à ce qu'une version émerge, la plus conforme aux observations.
Ces concepts plutôt abstraits et mathématiquement très élaborés font référence à des modèles inflationnaires de l'Univers dans lesquels la physique des hautes énergies joue un rôle essentiel.
Ainsi, les mécanismes de Higgs (Cf. Alan Guth et Andrei Linde) également appelés le champ d'inflaton intervient spontanément pour briser la symétrie entre les interactions afin de permettre au modèle inflationnaire de rejoindre le modèle Standard une fraction de seconde après le Big Bang.
Même si dans la version de l'énergie du vide, sa valeur est dérisoire (lambda est de l'ordre de 10-29 g/cm3), à grande échelle elle provoque une répulsion qui conduisit à l'expansion accélérée de l'Univers, raison pour laquelle elle revient dans toutes les théories modernes sur la cosmologie.
Le modèle lambda-CDM impose plusieurs conditions :
- l'Univers est une solution particulière des équations de la gravité de la théorie de la relativité générale
- l'Univers est homogène à grande échelle et est en expansion
- l'Univers connut une période d'expansion exponentielle appelée l'inflation qui s'arrêta lorsque l'asymétrie apparut, 10-35 sec après le Big Bang
- les fluctuations quantiques sont à l'origine de la distribution de la matière à grande échelle observée aujourd'hui.
Les deux dernières conditions sont spécifiques à cette théorie et sont pour le moins exotiques dans la mesure où elles sortent des phénomènes habituels et palpables. Mais comme nous le savons en science, ce n'est pas parce qu'on ne voit pas quelque chose, qu'il n'existe pas.
A partir de là, les physiciens ont dû faire des suppositions et émettre des hypothèses de travail, que d'autres ont cherché à combattre, certaines pour de bonnes raisons, d'autres tout simplement parce qu'ils ne les comprenaient pas et ne voyaient pas l'intérêt d'inventer une physique a priori exotique qui semblait impossible à vérifier.

Dans le modèle cosmologique inflationnaire que nous devons à Alan Guth, l'inflation (rectangle bleu) se produit lorsque la densité de Planck est descendue en-dessous de 1094 g/cm3, peu avant 10-35 sec. Mais ce scénario ne fonctionne pas. Andrei Linde l'a modifié en faisant commencer l'inflation au temps de Planck, à 10-43 sec (rectangle gris) et en faisant intervenir une théorie tachyonique. Toutefois quel que soit le scénario inflationnaire le rayon de l'univers observable (13.78 milliards d'années-lumière) est de loin inférieur à la distance de l'horizon cosmologique qui représente la distance maximale entre deux régions causalement liées par un signal lumineux. Document T.Lombry.
Mais on peut dire que depuis les travaux précurseurs d'Alexey Straboninsky puis ceux d'Andrei Linde en 1974 notamment, ce modèle inflationnaire a reçu du galon suite aux premières découvertes des satellites COBE et WMAP et est aujourd'hui supporté par la majorité des cosmologistes.
Cerise sur le gâteau, les résultats de Planck confirment tout à fait ce modèle avec une très grande précision.
Ce qui est plus étonnant encore, c'est que cette théorie fonctionne. C'est bien sûr le but de la Science de proposer des explications, mais nous savons qu'au cours de l'Histoire, on a parfois cherché à "sauver les phénomènes" comme à l'époque des Anciens Grecs ou le public n'acceptait tout simplement pas la réalité et préférait croire que la Terre était plate et placée au centre du monde, une manière aussi de se rassurer face à l'inconnu.
Dans ce contexte, le fait que le modèle lambda-CDM et ses quatre conditions fonctionnent s'explique physiquement parce qu'à l'époque de la Recombinaison, l'Univers s'était suffisamment refroidi pour devenir transparent au rayonnement cosmologique qui a pu se libérer de la purée d'énergie et se dissiper dans tout l'Univers de manière isotrope tout en conservant l'empreinte des germes d'hétérogénéité qui seront les futures grandes structures cosmiques.
Finalement, 380000 ans après le Big Bang, l'Univers était encore très simple. Il était constitué d'une soupe de plasma baryonique a priori mélangée à de la matière et de l'énergie sombre dans laquelle il n'y avait encore aucune réaction chimique car le niveau d'énergie l'empêchait.
A partir des données de Planck et en les comparant aux modèles et aidés par des superordinateurs vectoriels simulant ces processus, les scientifiques sont aujourd'hui en mesure de proposer une recette, une configuration physique de l'Univers qui permet de reproduire avec une très haute précision la distribution du rayonnement cosmologique observée par Planck.

Gros-plan sur la carte du rayonnement cosmologique à 2.7 K cartographié par Planck. Les couleurs sont tracées en fonction de la température et témoignent de la distribution de la matière. Les textures matérialisent les lignes de champ magnétique créées en fonction de l'orientation de la polarisation; elles témoignent des déplacements de la matière. Le signal polarisé (mode B) est largement dominé par les ondes de densité de la matière (les modes scalaires ou modes E). La carte de gauche présente une résolution de 5°, celle de droite de 20'. Document Planck - collaboration ESA. 
Les taches hétérogènes rouges et bleues qu'on voit dans l'image thermique de Planck sont les signatures d'un état et d'un mode particulier d'évolution du modèle du Big Bang inflationnaire associé au modèle lambda-CDM.
L'inflation de l'Univers s'expliquerait en raison de l'amplitude de plus en plus grande des fluctuations quantiques des ondes de densité (des champs scalaires, non orientés) qui ont fini par comprimer et dilater la matière, donnant naissance à des hétérogénéités à "petite échelle" à cette époque, les germes des futurs superamas de galaxies.
Ceci résume le contexte historique et scientifique à l'origine de la mission Planck. Voyons à présent les résultats de cette mission à laquelle ont collaboré 500 chercheurs internationaux répartis en deux équipes, une italienne et une française.
Les résultats de Planck
Les résultats présentés en 2015 soutiennent ceux publiés en 2013 à quelques virgules près dans les paramètres cosmologiques. Ils renforcent et même confirment que l'Univers primordial peut se définir au moyen de six paramètres, quelle que soit la manière dont les scientifiques manipulent les données. Ces six paramètres sont :
1. la densité de matière baryonique (constituant la matière ordinaire) créée au cours des premières minutes de l'Univers
2. la densité de matière sombre à la même époque
3. la distance de propagation des ondes soniques à l'époque où le rayonnement cosmologique s'est libéré (l'horizon du son) ou la taille angulaire des oscillations baryoniques acoustiques (BAO)
4. le pourcentage de photons du rayonnement cosmologique ayant dispersé les particules libérées par le rayonnement stellaire ou celui des quasars et ionisé l'hydrogène neutre remplissant le cosmos
5. l'amplitude des fluctuations de densité en fonction de l'échelle angulaire à la fin de la période inflationnaire et comment elles ont évolué en fonction de la taille de l'Univers
6. La pente du 5eme paramètre à travers le spectre.
A partir de ces variables, les scientifiques ont pu calculer toutes les autres propriétés de l'Univers comme son âge ou son taux d'expansion.

Spectre de puissance du rayonnement cosmologique à 2.7 K. L'intensité des variations de température (verticalement) a été tracée en fonction de leur dimension angulaire (horizontalement, c'est approximatif). La ligne rouge représente les prédictions du modèle cosmologique Standard, les points bleus les données de Planck. En résumé, l'expérience confirme la théorie. Document Planck - collaboration ESA.
Mais comme rien n'est jamais simple et isolé en science, les valeurs exactes dépendent de sous-ensembles de données qui apportent une tolérance ou une certaine marge d'erreur aux résultats dont les plus importants sont les paramètres cosmologiques suivants :
- L'âge de l'Univers : 13.799 ±0.038 milliards d'années
- Le paramètre de Hubble : Ho = 67.8 ±0.9 km/s/Mpc
- La densité baryonique : 0.4181 ±0.0043 yg/m3 (yoctogrammes/mètre cube)
- La densité de l'énergie sombre : 0.692 ±0.012
- La densité de la matière sombre et froide : 2.23 ±0.032
- Le rayon de courbure de l'Univers : -0.0029 < K < +0.008 avec 95% de confiance.
Les conséquences de la constante de Hubble
La constante de Hubble, Ho, fut découverte par Edwin Hubble en 1929 lorsqu'il découvrit que les galaxies se situaient bien au delà des distances ordinaires et semblaient nous fuir d'autant plus rapidement qu'elles étaient éloignées. L’intervalle de temps 1/Ho est une valeur indépendant de la distance qui permet de déterminer l’âge de l’Univers.
Avec Ho=100, dans le modèle cosmologique le plus simple (Einstein-De Sitter ou FRW) dans lequel l'univers est plat, l’Univers n’aurait pas 10 milliards d’années. Pour Ho=100 et un paramètre de densité précis, l'Univers peut avoir 20 milliards d'années. Son âge peut donc passer du simple au double en fonction d'un seul paramètre.
La constante de Hubble a été estimée à Ho = 69.32 ±0.80 km/s/Mpc selon WMAP et Ho = 73.8 ±2.4 km/s km/s/Mpc selon le Télescope Spatial Hubble.

L'Univers tel qu'il est à plusieurs milliards d'années-lumière... Il y a bien sûr des milliers de galaxies mais il y a surtout 75% de matière et d'énergie sombres ! Document NASA/STSCI/HST.
On savait en théorie que la valeur de Ho pouvait osciller entre 50 et 100 mais on privilégiait une valeur proche de 73 km/s/Mpc déduites des mesures du HST.
Une faible valeur de Ho comme 67.8 km/s/Mpc signifie que le taux d'expansion de l'Univers est plus lent que celui estimé par le HST, que l'Univers est plus jeune (13.8 milliards d'années) qui si on adoptait la valeur de 73 km/s/Mpc et que quelque chose l'empêche de s'étendre.
Il peut s'agir de matière (mais c'est peu probable car on la voit et on peut la détecter) ou d'autre chose de plus exotique et invisible dans la plupart des instruments et dans la plus grande partie du spectre.
Cette "matière manquante" peut se cacher sous forme d'innombrables corps sombres, d'antiparticules ou de particules interagissant peu avec la matière ordinaire. D'où l'importance de savoir ce que représente cette énergie sombre d'origine inconnue qui remplit les deux tiers de l'Univers.
Si on prend l'exemple des élusifs neutrinos, ce type de particule élémentaire est uniquement sensible à l’interaction faible. Aussi, bien qu'ils soient nombreux (chaque seconde, chaque centimètre carré de notre corps est traversé par 65 milliards de neutrinos), ils sont également très difficiles à capturer.
Imaginez alors une "matière" dix mille fois plus abondante et pourtant encore moins sensible aux interactions. Comment la détecter ? La question reste ouverte et si vous trouvez une méthode, le Prix Nobel vous attend !
Le modèle du Big Bang inflationnaire confirmé
Voici quelques détails des analyses qui ont permis de confirmer le modèle du Big Bang lambda-CDM, inflationnaire et euclidien, ainsi que les propriétés de l'Univers.
L'univers visible contient seulement 4.9% de matière baryonique (total des protons, neutrons et hypérions) contre 26.8% de matière sombre et 68.3% d'énergie sombre.
La densité de la matière baryonique est connue avec une précision de 1.1%, celle de la matière sombre et froide avec une précision de 1.4% et celle de l'énergie sombre avec une précision de 3.7%.
En tenant compte de ces valeurs dans les équations cosmologiques, l'horizon de l'univers observable (qui varie en fonction du taux d'expansion de l'Univers) se trouve aujourd'hui à environ 13.79 milliards d'années-lumière ou 4233 Mpc.
Cela n'empêche pas l'Univers réel d'être beaucoup plus vaste. L'horizon cosmologique a été multiplié par ~1093 depuis l'époque du découplage et se situe aujourd'hui à 46.5 milliards d'années-lumière selon le modèle Standard tandis qu'il aurait enflé d'un facteur 101012  dans le modèle inflationnaire ! L'une comme l'autre sont des distances inconcevables...

Document A.Linde/Scientific American adapté par l'auteur.
Dans le modèle Standard, sur base des mêmes proportions de matière et d'énergie, cela correspond à environ 5.4 nucléons par mètre cube d'espace alors que Planck a porté cette valeur moyenne à 1 proton tous les centimètres cubes d'espace.
En tenant compte des valeurs de Planck, ce volume d'univers visible "pèse" environ 2.8x1054 kg et vingt fois moins (1.25x1053 kg) si on ne considère que la contribution des baryons.
A partir de ces derniers, on estime que l'univers contient quelque 1080 nucléons (et autant de photons), ce qui représente environ 1023 masses solaires ou cent mille milliards de milliards de Soleil.
Si on convertit la quantité de matière sombre en équivalent énergie, bien que la densité de l'énergie sombre (6.9x10-27 yg/m3) soit plus de 1300 fois plus faible que celle de la matière ordinaire (9.24x10-27 ykg/m3), elle domine à grande échelle du fait de son uniformité à travers tout l'univers.
A propos des limites du 1er paramètre concernant la densité de matière, Planck confirme que la densité de l'Univers est de 0.9995 ±0.0034, ce qui est compatible avec un Univers plat (modèle FRW), euclidien. Il n'est donc ni sphérique (rayon de courbure sup.0, densité sup.1) ni hyperbolique (rayon de courbure inf.0, densité inf.1). Dans notre univers, les lignes parallèles ne se rejoignent jamais à l'infini.
On en déduit également qu'il n'y a pas d'autres familles de neutrinos. Il n'existe que trois saveurs, aux tolérances près (3.3 ±0.28 contre 3.046 selon les prédictions) et leur masse globale est inférieure à 0.23 eV.


Les données de Planck confirment aussi les mesures de WMAP concernant l'asymétrie entre les températures moyennes des deux hémisphères. Cela suggère que l'Univers n'est pas homogène dans toutes les directions à une échelle supérieure aux observations.
Une explication serait que le rayonnement cosmologique nous est parvenu en suivant un cheminement plus complexe qu’on l'a imaginé jusqu’ici.
Les mesures de Planck confirment aussi l'anisotropie du pôle Sud, la "tache froide" étant même plus étendue qu'on l'escomptait.

Cette carte montre l’asymétrie entre les températures moyennes des deux hémisphères du ciel et la tache froide dans l'hémisphère sud. Document Planck - collaboration ESA.
Les mesures confirment aussi l'idée que les petites fluctuations quantiques furent légèrement plus intenses à grandes échelles qu'à petites échelles. WMAP avait relevé cette différence, mais Planck a confirmé sa valeur avec précision, renforçant les prédictions et la validité du modèle inflationnaire qui précise ces valeurs.
L'équipe de Planck en collaboration avec l'équipe BICEP2/Keck ont étudié la polarisation du rayonnement cosmologique par d'éventuelles ondes gravitationnelles amplifiées par le phénomène d'inflation.
L'équipe BICEP2/Keck avait en effet découvert en mars 2014 un signal polarisé (mode B) à 353 GHz dans le rayonnement à 2.7 K mais qui pouvait a priori être parasité par la présence de poussière de la Voie Lactée située à l'avant-plan.

Contribution de la poussière et de la matière sombre du halo à différentes époques de l'Univers. Document Planck - collaboration ESA. Notons que la composante gravitationnelle a été infirmée en 2016 : il ne s'agit que de l'effet de la poussière présente dans la Voie Lactée (voir fin de l'article).
Le signal étant également présent à 150 GHz, à cette fréquence on constate que la contribution supposée des lentilles gravitationnelles (en fait la matière sombre qui induit ces effets) est beaucoup plus importante (mais voir fin d'article car cette conclusion fut infirmée en 2016).
En 2014, on en conclut que le reste est d'origine cosmologique (en fait émit par des ondes gravitationnelles primordiales). Il fallait donc confirmer que cette polarisation était liée ou non à la présence de poussière interstellaire qui est omniprésente (elle dessine notamment la Voie Lactée et toutes les nébuleuses).
Les analyses confirment que les deux signaux sont globalement de même amplitude. Si on retire les contributions de la poussière galactique et de la matière sombre (principalement celle du halo galactique) à l'origine des lentilles gravitationnelles, le reste du signal paraît donc bien associé aux ondes gravitationnelles primordiales, ce qui est une découverte majeure (mais fausse, cf. fin d'article).
Les mesures de Planck sont conformes aux valeurs calculées par le modèle lambda-CDM ayant donné naissance aux grandes structures cosmiques que nous observons. Cela veut dire que jusqu'ici, la contribution de la poussière dans les mesures a été sous-estimée.
Enfin, la polarisation du rayonnement cosmologique confirme ainsi le phénomène d'inflation, une cerise de plus sur le gâteau.

Carte mixte de la poussière (en couleurs) et du champ magnétique galactique (lignes en relief) mesurés par Planck à 353 GHz. Le champ d'observation de BICEP2 est indiqué en pointillés blancs et se situe dans l'hémisphère sud. Ce champ contient peu de poussières (dans les bleus ciels et pas bleu foncé). Le signal polarisé permet clairement de tracer les lignes du champ magnétique galactique et ne peut être ignoré ni confondu avec une émission locale. Document Planck - collaboration ESA.
Les deux équipes Planck et BICEP2/Keck ont trouvé une limite supérieure pour le rapport des ondes gravitationnelles en fonction des fluctuations de densité de 0.08, légèrement inférieure aux résultats des analyses précédentes (0.12 et 0.11).
Une valeur plus faible est favorable à un modèle inflationnaire plus simple. Elle implique un modèle où l'inflation est engendrée par la décroissance d'un seul champ d'énergie, un champ qui diminua "lentement" comparé au taux d'expansion exponentiel de l'Univers (durant l'inflation l'univers s'est dilaté d'au moins 5 milliards de milliards de fois en 10 nano-nano-nano-nanosecondes, c'est pas si lent que ça !).
Le niveau d'énergie requis pour l'inflation était inférieur à 2x1016 GeV, équivalent au niveau nécessaire pour unifier les interactions forte, faible et électromagnétique en une seule Théorie de Grande Unification ou GUT.
Autre correction qu'a permis Planck, l'ère stellaire qui suivit l'ère de la Recombinaison, durant laquelle nous assistâmes à la formation des protoétoiles, des protogalaxies et des quasars et où l'Univers des étoiles commença à briller a été réévalué.
WMAP indiquait qu'elle correspondait à un décalage Doppler vers le rouge (redshift z) de 10, ce qui correspond à 470 millions d'années après le Big Bang, mais Planck a retardé le début de cette ère à z= 8.8 ou 560 millions d'années après le Big Bang, il y a 13.2 milliards d'années.
Précisons que sur base de ces chiffres, durant l'intervalle  z=8.8-10, H = 1255 km/sec/Mpc.
De même, le niveau d'annihilation de matière qu'on observe dans le coeur de la Voie Lactée supporte le modèle Standard et les valeurs observées dans le rayonnement cosmologique au détriment des théories alternatives (comme une émission gamma diffuse par exemple).


Concernant l'évolution de l'amplitude des fluctuations de densité (le 5eme paramètre du modèle lambda-CDM), également appelé indice spectral scalaire, il est relativement important car il décrit l'état de l'Univers à la fin de l'inflation.
Planck a mesuré une valeur de 0.968 ce qui veut dire que l'amplitude des fluctuations est légèrement plus grande à grandes échelles que ce que prédisent la plupart des modèles inflationnaires. Cette différence produit un léger effet sur le taux de formation des galaxies au cours du temps.
Reste la question étrange des petits amas de galaxies qui manquent à notre inventaire cosmique. L'équipe de Planck a bien trouvé certaines petites bosses ou irrégularités dans le rayonnement cosmologique qu'on peut associer à des fluctuations de la distribution de la matière dans l'Univers primordial.
Mais Planck prédit 2.5 fois plus d'amas que ce que les astronomes observent. Il peut s'agir d'erreurs dans les estimations comme il peut tout aussi bien s'agir des effets d'une nouvelle physique. La question reste ouverte, une de plus parmi les dizaines d'autres de la cosmologie.
Quant aux théories exotiques expliquant le Big Bang, comme celle faisant par exemple appel à des collisions entre branes de dimensions supérieures, elles ne prédisent pas une telle polarisation. Et c'est l'une des raisons pour lesquelles Planck fut construit. Les résultats vont donc au-delà des espérances.
En résumé
Toutes les valeurs mesurées et affinées par Planck sont en accord avec les observations antérieures du rayonnement cosmologique à 2.7 K. Complétées par la confirmation de quelques découvertes faites au sol, elles confirment que le modèle cosmologique Standard inflationnaire est non seulement correct et cohérent mais s'accorde parfaitement avec la constante cosmologique lambda-CDM.
En d'autres termes, l'Univers est né au cours d'un phénomène de Big Bang inflationnaire dont nous retrouvons aujourd'hui l'empreinte à grande échelle dans la fuite apparente des galaxies, des superamas, la polarisation du rayonnement diffus cosmologique et l'énergie sombre, et à petite échelle dans l'existence même des particules élémentaires et des étoiles individuelles sans lesquelles rien n'existerait à part le vide et les photons.


Il reste évidemment des questions ouvertes et des inconnues ainsi que des constantes dans les équations dont les physiciens aimeraient bien se débarrasser.
Mais c'est également le but de la Science d'essayer d'y répondre et notamment aux questions encore métaphysiques : pourquoi le Big Bang a-t-il eu lieu, qu'y avait-il avant le Big Bang ainsi qu'à la question ultime : pourquoi sommes-nous là à nous poser la question ? Les réponses viendront.
PS. Les résultats de la mission Planck ont été présentés au cours de la Conférence Planck qui s'est tenue à Ferrara, en Italie en décembre 2014 mais les articles d'analyses n'ont été publiés que le 5 février 2015.
Dernières nouvelles
Suite à des contre-analyses des données de l'expérience BICEP2, des astronomes ont confirmé début 2016 dans le magazine "Nature" que la polarisation en mode B ne provient pas des ondes gravitationnelles comme cela fut publié mais de la poussière interstellaire omniprésente dans la Voie Lactée, ce que certains chercheurs avait déjà suggéré en 2014.
Pour plus d'informations
Planck publications, 2013, 2015, ESA
Planck results papers 2015, JPL (pareil que le site de l'ESA)
Planck resultats 2013 (surtout le tableau récapitulatif), Wikipedia US
Joint analysis BICEP2/Keck
La cosmologie, Luxorion
L'Univers inflationnaire, Luxorion
Ned Wright's Cosmology, UCLA
Andrei Linde page, Stanford U.
Alan Guth page, MIT