Dr. Nolan : "C'est un laboratoire où les deux camps, du moins pour l'instant, jouent le rôle des rats."
En février dernier, le Dr Garry Nolan a participé à la UAP SUMMIT, une conférence visant à tracer la voie à suivre pour une détection et un suivi efficaces des PAN.
Qui est Garry Nolan ?
Le Dr Garry Nolan est titulaire de la chaire Rachford et Carlota A. Harris au département de pathologie de la faculté de médecine de l’université de Stanford. Il a obtenu son doctorat sous la direction de Leonard Herzenberg et a mené des recherches postdoctorales auprès du Dr David Baltimore, lauréat du prix Nobel de physiologie ou médecine. Le Dr Nolan a publié plus de 360 articles de recherche et détient 50 brevets américains. Son champ d’étude concerne essentiellement le système immunitaire et ses interactions complexes avec les cancers. En 2021, le Dr Nolan a déclaré avoir été sollicité par des représentants du gouvernement et d’une entreprise aérospatiale afin de les aider à comprendre les dommages médicaux subis par certaines personnes suite à des interactions présumées avec un engin anormal. Il est également cofondateur et directeur exécutif de la Sol Foundation, une fondation académique interdisciplinaire sur les PAN.
Si certains comparent les PAN à des biologistes qui examinent les animaux d’une réserve ou d’un zoo, G. Nolan préfère la métaphore d’un laboratoire dans lequel deux catégories de rats s’étudient mutuellement :
« Ce n’est pas un zoo. C’est un laboratoire où les deux camps, du moins pour l’instant, jouent le rôle des rats. Je dirais que s’ils existent vraiment, ce sont des rats plus intelligents que nous. »
En effet, les PAN semblent démontrer un intérêt particulier pour nos capacités nucléaires, notre diversité biologique, nos réactions cognitives et notre cohésion sociale tandis que nous étudions leurs signatures de propulsion, leur composition, leurs modèles comportementaux et leur origine.
Le programme Skywatcher : des opérations techniques sur le terrain à l’analyse scientifique
Le programme Skywatcher est une initiative privée constituée de 3 groupes dont les motivations et la définition de succès divergent : les scientifiques, les militaires et les investisseurs. L’approche scientifique nécessite la publication de résultats et leur validation par des pairs (ce qui nécessite un accès libre aux données et aux méthodes qui ont permis de les obtenir). Les militaires ont pour priorité la domination stratégique et la sécurité opérationnelle qui exigent la protection des capacités et une compartimentation des données. Enfin, les investisseurs recherchent un retour sur investissement qui repose la plupart du temps sur l’acquisition d’une propriété intellectuelle. Ils sont donc peu enclins à une collaboration “open-source”, du moins dans un premier temps.
« En réalité, il s’est avéré plus difficile que je ne l’aurais imaginé de concilier ces différents aspects liés à la science, à l’armée et au capital-risque. […] Le problème, c’est que ce que nous voulions vraiment, c’était garantir une transparence totale concernant les données scientifiques. »
Nolan commence par exposer sa démarche. Il insiste sur le fait qu’il s’exprime en son nom propre, et non en tant que représentant de Skywatcher, et que, bien que ses conclusions s’appuient sur des données ou sur ce qu’il a vécu lors des événements organisés par Skywatcher, elles restent hypothétiques. Son rôle au sein de Skywatcher consistait à aider l’organisation à concevoir des expériences scientifiques rigoureuses pouvant faire l’objet de rapports, ainsi qu’à définir des ajustements pour les expériences ultérieures. L’objectif est de créer une base solide de données préliminaires pouvant être transmise à un autre scientifique afin qu’il puisse parvenir à des conclusions similaires.
Qu’est-ce qu’une preuve ?
Avant toute chose, G. Nolan pose un cadre sémantique en revenant sur les notions de données, d’éléments de preuve (“evidence” en anglais) et de preuves (“proof”).
Les données sont des informations brutes. Elles peuvent être obtenues par des appareils mais peuvent également concerner les observations rapportées par des témoins oculaires. Bien qu’elles puissent relever de l’anecdote, il convient de s’interroger : combien d’observations sont nécessaires pour être considérées comme une vérité ?
Un ensemble de données validées constitue un élément de preuve. On obtient un élément de preuve après s’être assuré que les données ont été correctement collectées, que les éléments non pertinents ont été retirés et qu’elles ont été remises dans leur contexte. G. Nolan propose ainsi une approche multi-capteurs :
trajectoire radar
caméra thermique infrarouge (FLIR)
confirmation visuelle
La preuve quant à elle, est convaincante, indiscutable et reproductible.
“Vous pourriez lire chacun de mes articles – il y en a plus de 360 – et vous verriez que nous affirmons très rarement quoi que ce soit dans nos démonstrations biologiques. Nous disons toujours “les données corroborent”. […] Les preuves ne sont vraiment possibles que lorsque vous établissez des limites si strictes autour de vous ou pour ce que vous essayez de prouver que l’existence de certains objets devient irréfutable et indéniable. En d’autres termes, soit cela se concrétise, soit vous devez vous y résigner. Et pour beaucoup de gens, ce serait la seule preuve qu’ils accepteraient.”
Pour G. Nolan, nous pourrions parler de preuve dans les cas suivants :
Artefact physique : découverte de matériaux présentant des rapports isotopiques non terrestres ou de métamatériaux conçus dépassant les capacités de fabrication actuelles et dont la validation serait faite par au moins 3 laboratoires indépendants.
Échantillon biologique : matière biologique dont le séquençage génétique ne correspond pas à l’arbre phylogénétique terrestre ou qui témoigne d’une synthèse artificielle. Le séquençage pourrait être évalué et confirmé par des pairs.
A ce titre, G. Nolan précise :
“Je n’ai encore jamais vu d’échantillon biologique qui puisse être qualifié d’extraterrestre. Nous avons démontré que le squelette d’Atacama était celui d’une fillette humaine, au grand désarroi de certains d’ailleurs. Je n’ai donc rien vu de tel, mais cela serait évidemment fantastique. Bien sûr, nous connaissons tous les travaux de James Fox menés au Brésil concernant l’affaire de Varginha. Je pense que pour le moment, c’est probablement ce qui se rapproche le plus d’anecdotes vérifiables.”
Transfert d’informations : communication de connaissances vérifiables que l’humanité ne possède pas encore (ex. : la solution au problème P ≟ NP ou à la théorie de grande unification). La validation reposerait alors sur une preuve mathématique.
Violation des lois de la physique : démonstration d’une technologie qui enfreint les lois de la physique telles que nous les connaissons dans des conditions contrôlées. Ces caractéristiques ont déjà été présentées par Luis Elizondo qui les nomme les 5 observables. La validation repose alors sur la corroboration par différents capteurs.
Le modèle bayésien
G. Nolan rappelle qu’un scientifique ne s’appuie pas sur un mode de pensée binaire : Croyez-vous ? Est-ce vrai / Est-ce faux ? La science fonctionne généralement dans un modèle bayésien, qui est une approche statistique développée depuis plus de 100 ans. Il s’agit alors de situer ce qu’on considère comme une preuve sur un spectre allant de 0 à 100% en termes de vraisemblance.
“Il existe différents cadres de référence. Pour la norme dite de Sagan, celle qui exige des preuves extraordinaires, je parlerais simplement d’éléments preuves. Je ne pense pas qu’elles doivent nécessairement être extraordinaires. Je pense qu’il faudrait que notre valeur P, ou notre probabilité, soit supérieure à 99 %. L’élément de preuve solide correspond aux données préliminaires qui vont dans ce sens. Et puis, il y a simplement les données brutes.”
Ainsi, G. Nolan définit trois niveaux d’élément de preuve (evidence) :
Probabilité supérieure à 99% ⇨ Norme de Sagan (élément de preuve extraordinaire). Certitude statistique. Nécessite un changement radical du consensus scientifique. L’anomalie est acceptée comme une réalité physique. (P > 0,99)
Probabilité supérieure à 90% ⇨ Elément de preuve solide (information exploitable). Le risque de faux positif chute en dessous de 10 %. Justifie des enquêtes ciblées et des changements de stratégie. (P > 0,90)
Probabilité supérieure à 50% ⇨ Détection (point de bascule). L’hypothèse devient “plus probable qu’improbable”. Insuffisant pour tirer une conclusion, mais déclenche le déploiement de capteurs dédiés. (P > 0,50)
Pour G. Nolan, l’un des avantages d’une telle approche réside dans l’intégration des signalements et témoignages de citoyens. En faisant référence à la présentation portant sur les réseaux de signalements citoyens en tant qu’infrastructures de données, G. Nolan ajoute:
“Voilà une approche qui, selon moi, serait idéale à appliquer aux données que Robert Spearing vient de présenter, car elles fournissent les chiffres bruts nécessaires pour les intégrer dans un système d’ingestion permettant d’obtenir une vérité bayésienne : on peut ainsi examiner les a priori, qui, une fois combinés, aboutissent à une probabilité garantissant un excellent résultat.”
L’expérience Skywatcher
G. Nolan précise que la mission consistait à recueillir et à fournir des renseignements aériens précis, périodiques et complets grâce à une collaboration avec les autorités fédérales, étatiques et locales basée sur des preuves. Il insiste sur le fait que Skywatcher n’est pas un projet gouvernemental, mais bien une initiative financée par des fonds privés réunissant des opérateurs spéciaux, des militaires, des agents de renseignement, des responsables de la sécurité nationale, ainsi que lui-même en tant que scientifique. L’objectif principal des investisseurs n’était pas la propriété intellectuelle, mais l’obtention d’une preuve.
Il présente les 4 étapes de la démarche scientifique préconisée :
la détection et collecte des données,
la validation d’une corrélation multi-capteurs,
l’analyse de la dynamique de vol,
la production de données de renseignement.
La détection et collecte des données
G. Nolan évoque le matériel utilisé pour la détection et la collecte des données mais également l’importance de leur paramétrage. Il insiste sur la nécessité de ne pas filtrer les données collectées à la source. En effet, les appareils sont souvent calibrés pour signaler uniquement des objets aux caractéristiques similaires (avions, missiles, drones…) et filtrent toutes les autres données avant même de les enregistrer. Pourtant, un objet strictement immobile malgré la pression du vent ne devrait pas être exclu du champ d’étude. G. Nolan rappelle que Chris Mellon avait milité pour que les filtres soient ouverts. Et c’est bien une ouverture à un plus large spectre qui a permis la détection des ballons chinois en février 2023. De même, l’ancien pilote Ryan Graves qui a témoigné sous serment devant le congrès a précisé que les incidents de PAN à proximité de porte-avions avaient débuté après une mise à niveau des capacités radar.
La validation d’une corrélation multi-capteurs
Elle repose sur le recoupement des données de télémétrie, infrarouges, optiques et ROEM afin d’éliminer les faux positifs. Il précise que les algorithmes sont rigides tandis que la perception humaine est adaptative. Les pilotes expérimentés peuvent identifier des comportements hautement inhabituels tels que des changements de formation, des mouvements non balistiques, etc. qui pourraient être filtrés par les plateformes de détection.
“Le pilote fait également office de plateforme de capteurs, et [...] nous considérons la détection visuelle par le pilote comme un déclencheur hautement fiable pour dire : « Bon, maintenant, il faut tout mettre en marche.”
“L’objectif était donc la corrélation multicapteurs. Nous recherchions des objets présentant un vol anormal et capables de se déplacer de manière intelligente, et si nous avions eu de la chance, obtenir un élément technologique susceptible d’en tirer des renseignements (cela n’a pas été le cas).”
“Au final, nous nous sommes retrouvés avec un très petit nombre de traces qui n’avaient rien de banal.”
L’analyse de la dynamique de vol
Ici, Nolan se réfère aux lois immuables de la physique en tant que filtre. Toutes capacités que les appareils conventionnels ne peuvent atteindre seront considérées comme anormales. Il s’agit de capacités d’accélération instantanée supérieures à 20G. Pour rappel, la limite structurelle d’un F-35 se situe à 9G. Il mentionne également l’absence de boum sonique et ce qu’on nomme l’hypersonique froid, l’absence d’échauffement de la matière constaté sur l’extrémité avant des objets se déplaçant à des vitesses hypersoniques.
La production de données de renseignement
Bien que les éléments obtenus soient encore en cours d’analyse, G. Nolan reste très prudent et réservé quant à une éventuelle publication. La nature hétéroclite du groupe Skywatcher a mis à mal la rigueur scientifique que nécessitent de telles études.
“Nous sommes encore en train d’analyser les données. Comme je l’ai dit, nous avions des milliers de traces, et c’est là que ce triumvirat, composé de groupes scientifiques, militaires et de structures financières, n’a pas fonctionné. La science n’a pas toujours été appliquée de la manière que j’aurais souhaité, c’est-à-dire en veillant à ce que tous les instruments fonctionnent de la même manière et au même moment, du moins lors de certains des premiers événements. Cela a été corrigé pour les deuxième et troisième événements. Mais la synchronisation temporelle n’a pas été effectuée comme elle aurait dû l’être.”
“Nous n’avons pas atteint les critères de collecte de données multi-capteurs que j’aurais souhaités. Nous y parvenions toujours pour l’un, mais pas pour l’autre. Nous n’avons donc pas pu obtenir l’inférence bayésienne qui permet d’aboutir à quelque chose. Mais nous savons désormais ce que nous devons vraiment faire, et nous avons identifié un groupe qui travaille avec le gouvernement et qui peut nous aider à nous assurer que tous nos instruments sont configurés correctement, au bon moment, pour une acquisition de données plus poussée grâce à des procédures désormais affinées.”
“Je pense que le cadre qui a été élaboré doit rester en place, et que l’objectif est de remplacer les anecdotes. Mais les anecdotes ne devraient pas être écartées en raison de leur utilité bayésienne. Je pense vous avoir démontré que la corrélation de différents modes de détection est la clé absolue.”
Ainsi, G. Nolan ne pense pas que Skywatcher doive nécessairement continuer d’exister en tant qu’entité. Pour lui, l’essentiel réside dans la méthode à suivre.
Et lorsqu’il est interrogé sur d’éventuels atterrissages d’engins ou une proximité physique immédiate, il répond :
“Rien n’a jamais atterri, et aucun objet n’a concrètement été récupéré. Et si c’était le cas, je n’en savais rien. Écoutez, j’aurais bien aimé que ce soit le cas, mais pour faire court : si c’est une rumeur, qu’elle en reste une, car ce n’est pas le cas.”
Le modèle bayésien appliqué aux témoins oculaires
Garry Nolan démontre également que le modèle bayésien peut être appliqué aux observations rapportées par des témoins. Pour cela, nous devons revenir à la notion de norme de Sagan en tant qu’élément de preuve extraordinaire. Pour rappel, elle correspond à un niveau de certitude d’une probabilité de 99% (P > 0,99).
“C’est là que ça devient intéressant, à mon avis : lorsque l’on s’approche de la norme bayésienne. [...] Il suffit d’utiliser une simple inférence bayésienne pour constater que, dès que l’on atteint trois ou quatre événements mesurés simultanément ou différents, la norme, ou plutôt la probabilité a priori bayésienne, grimpe en flèche. N’importe qui peut faire le calcul. Demandez à ChatGPT de vous aider si vous voulez apprendre comment faire. Cela ne demande pas beaucoup d’efforts. Et j’ai effectué une analyse bayésienne sur plusieurs centaines d’anecdotes pour voir quels résultats on obtient.”
L’inférence bayésienne permet à G. Nolan de conclure que 3 capteurs détectant simultanément une anomalie permettent d’atteindre une probabilité de vraisemblance dépassant les 99%. Il atteint le même niveau de vraisemblance avec 8 observateurs entraînés (ex. : des pilotes) ou 27 témoins oculaires civils.
“Lorsque les gens disent qu’il n’y a pas de preuves, c’est parce qu’ils ne savent pas comment fonctionnent les mathématiques bayésiennes. Et ils n’ont pas le type de formation scientifique, du moins pas celle que j’applique aux problèmes sur lesquels je travaille.”
G. Nolan démontre ainsi que la qualité prime sur la quantité. Toutefois, la quantité permet également d’aboutir à une vraisemblance suffisante. Il est donc possible d’inclure les signalements de témoins oculaires civils dans une approche scientifique.
L’analyse de matériaux
Garry Nolan ne peut détailler davantage les données recueillies par Skywatcher puisqu’il est soumis à une clause de non-divulgation. Il revient donc sur quelques travaux menés dans son laboratoire sur des matériaux liés aux PAN.
Les fragments de Ubatuba
Il commence par des fragments en lien avec l’incident qui s’est déroulé à Ubatuba, au Brésil en 1957 et qui lui ont été remis par Jacques Vallée.
“Désormais il semble clair qu’il existe deux séries de preuves, constituées de matériaux différents et qui seraient issues du même événement. L’une concerne du magnésium de très haute pureté. Robert Powell et Michael Swords ont mené un travail d’analyse considérable sur ce matériau. [...] Quant au matériau que j’ai obtenu par l’intermédiaire de Jacques [Vallée] et que nous pensions être du magnésium (et effectivement, il en contient), cela s’avère en réalité être du silicium.”
Après avoir réalisé une imagerie atomique par sonde atomique tomographique, les physiciens du département de physique de Stanford se sont aperçus que la distribution des différents isotopes de silicium de l’échantillon sont très éloignés de ce qu’on trouverait pour du silicium naturel. Sous sa forme naturelle, le silicium (Si) est constitué des trois isotopes stables : 28Si (92,2%), 29Si (4,7%) et 30Si (3,1%). Or l’échantillon de Ubatuba contient 72,3% de 28Si, 16,5% de 29Si et 10,9% de 30Si.
“Tout d’abord, l’échantillon lui-même est composé à près de 99,9 % de silicium ; il s’agit de quelque chose qu’on trouve uniquement dans la fabrication de plaquettes de silicium, et ce n’était pas facile à produire à l’époque. Et il est certain qu’on n’aurait pas modifié les rapports isotopiques du silicium. L’hypothèse audacieuse avancée par l’un des scientifiques du département d’ingénierie était donc la suivante : il a dit qu’il y avait moins de ce qui était censé s’y trouver, et plus de l’isotope suivant, puis encore plus de celui d’après. Il existe un processus capable de produire cela, et cela s’appelle la capture neutronique.”
En exposant un matériau à un niveau élevé de neutrons, un noyau de cet élément peut intégrer un neutron supplémentaire. Par ce processus, on peut transformer l’isotope 28Si (14 neutrons) en 29Si (15 neutrons), 29Si (15 neutrons) en 30Si (16 neutrons), et le 30Si en phosphore (P). Une capture neutronique pourrait se faire dans un réacteur nucléaire. Toutefois, G. Nolan précise que pour atteindre un tel ratio d’isotopes, il faudrait exposer le silicium durant environ 10000 ans dans un réacteur nucléaire. G. Nolan démontre, calcul à l’appui, qu’un tel processus permet d’obtenir des ratios d’isotopes identiques à l’échantillon de silicium d’Ubatuba.
“Il faudrait une énergie de 25 kiloélectronvolts (keV) sur une période considérable pour obtenir les rapports isotopiques de silicium que nous avons mesurés. Et de combien de temps parle-t-on ? Environ 10 000 ans dans un réacteur nucléaire, ou un niveau de rayonnement neutronique correspondant au moins à l’époque où ces isotopes pouvaient exister sur Terre. Alors, cela prouve-t-il que ces éléments sont d’origine extraterrestre ? Absolument pas. Cela indique simplement que cela a été conçu d’une manière intéressante, car c’est exactement le rapport auquel on s’attendrait si l’on utilisait ce modèle d’absorption des neutrons, mais qui a été découvert il y a 40 ans ou plus.”
“Il s’agit donc d’une observation. Ce sont des données. Et si je parviens à convaincre quelqu’un d’autre que ces données ont été collectées correctement, ce n’est pas nécessairement à moi de l’expliquer, mais c’est à nous de nous demander ensuite : Pourquoi ? Comment ? Comment est-ce arrivé là ? Pourquoi cela se trouverait-il sur une plage à Ubatuba, au Brésil ? Et pourquoi est-ce différent de l’échantillon constitué de magnésium qui a fini entre d’autres mains ?”
G. Nolan précise qu’il est possible que les différents isotopes de silicium aient été volontairement associés pour obtenir ce ratio. Mais dans ce cas, pourquoi avoir choisi un ratio correspondant exactement à ce qu’on obtiendrait lors d’une capture neutronique ?
Les échantillons du site de Trinité
G. Nolan présente ensuite l’étude qu’il a mené sur des échantillons de matériaux récupérés sur le site d’un crash présumé sur le site de Trinité. Il s’agit d’un matériau stratifié composé de couches d’oxyde de magnésium séparées par une couche de bismuth.
G. Nolan explique que la présence de bulles de 50 à 80 µm ainsi que leur conformation (rupture vers l’extérieur) démontrent qu’elles sont apparues après fabrication de celui-ci. Leur présence est due à l’exposition à une chaleur extrême après sa fabrication et proviennent de la matière en fusion à l’intérieur. Cet élément concorde donc avec une explosion ou un crash.
“Bien sûr, nous connaissons tous la proposition de Hal [Puthoff] selon laquelle cela correspondrait à la notion de métamatériau ou un guide d’ondes. Je ne peux pas me prononcer là-dessus.”
“Nous avons effectivement réalisé quelques mesures de réflexion, et l’absorption se produit bien dans la zone attendue. Je sais qu’il s’agit également de la zone où le dioxyde de carbone est absorbé, mais nous avons effectué les contrôles nécessaires. Et ce critère d’absorption est dû à l’objet lui-même. Ce n’est pas dû uniquement à l’absorption du FTIR dans l’air, car je sais que des gens m’ont déjà posé cette question.”
“Cela se situe donc bien dans la fourchette suggérée par Hal [Puthoff]. Il y a absorption. Ce que nous n’avons pas encore fait, c’est de voir, si c’est le cas, ce qu’il émet. C’est donc l’une des prochaines étapes que nous allons franchir avec ce matériau.”
Enfin, G. Nolan a étudié la structure de l’échantillon par EBSD (Electron Backscatter Diffraction). Cette technique permet de cartographier la structure des grains et leur orientation. l’imagerie par EBSD démontre clairement que les cristaux de magnésium sont positionnés perpendiculairement aux couches de bismuth.
“Cela ne correspond pas à ce que l’on verrait dans un processus de fusion, bien que certains ont affirmé qu’il s’agissait du fond d’un système de fusion du plomb.”
“Selon les scientifiques spécialisés en matériaux qui ont examiné la question, cela exclut donc le laminage et le collage, car cela aurait écrasé les grains. Cela exclut également la coulée, en raison de la différence de point de fusion entre le bismuth et le magnésium. Et ce n’est pas de la galvanoplastie, à cause de la réactivité. Ces possibilités sont donc écartées.”
“Cela aurait pu être réalisé par dépôt en phase vapeur. Ce n’est pas une technique que nous avons vraiment mise au point avant ces dix dernières années. À une échelle industrielle, la technologie de l’époque aurait peut-être été viable, mais pas à un degré comparable à ce que l’on observe ici. La stratification en masse, même à ce niveau de résolution, reste un défi aujourd’hui encore. Ce n’est actuellement pas impossible, mais ça l’était à l’époque.”
“Nous devons donc encore effectuer des tests supplémentaires au niveau des interactions et examiner les modes de transmission de ce matériau avec différentes données d’entrée.”
Des séquelles physiologiques
Interrogé sur le syndrome d’activation mastocytaire (MCAS), Garry Nolan revient sur l’étude d’un échantillon de peau qui lui a été soumis.
“Voici quelque chose d’intéressant, justement à ce sujet. On m’a donc apporté la biopsie d’une personne qui avait déclaré avoir subi ce genre d’attaque, disons. Il s’agissait d’une biopsie cutanée. J’ai donc apporté [...] un fragment de peau à une pathologiste de mon service. Elle est spécialisée dans les examens dermatologiques. Ce que nous avons constaté, c’est que la couche supérieure de la peau était intacte. L’inflammation se trouvait en dessous, là où la peau était endommagée, comme si une sorte de signal ou d’énergie s’était manifesté sous la couche dermique. Elle a déclaré qu’il ne s’agissait pas d’une irritation chimique. Ce n’était pas une brûlure, car une brûlure se serait manifestée à la surface de la peau. Je ne sais pas comment on pourrait obtenir ce genre de lésions à une telle profondeur dans la peau. Et la raison pour laquelle nous savons qu’il ne s’agissait pas de certaines des choses dont cette autre personne venait de parler, c’est qu’il n’y avait aucune trace de mastocytes à proximité.”
La peau est constituée de 2 tissus : l’épiderme, un tissu épithélial situé en surface et le derme, un tissu conjonctif sous-jacent. Sous le derme se trouve l’hypoderme, constitué essentiellement de tissu adipeux (graisse corporelle). L’hypoderme est indissociable de la peau. Un échantillon de peau comprend donc les 3 tissus : l’épiderme, le derme et l’hypoderme. Nolan explique donc que la lésion constatée se situait au niveau de l’hypoderme sans que l’épiderme ni le derme ne présentent d’anomalie. Cela ne concorde pas avec une brûlure thermique ni avec une brûlure chimique car celles-ci agissent depuis la surface de la peau et se diffusent en profondeur (ex. brûlures du 1er, 2ème et 3ème degré).
Les mastocytes sont des cellules immunitaires, ce que les gens appellent communément des globules blancs. Ils jouent un rôle prépondérant dans le recrutement précoce d’autres cellules immunitaires et activent de nombreux médiateurs inflammatoires importants dans la réponse aux infections. Leur rôle dans les réactions de type allergique est également connu depuis longtemps. On observe souvent une prolifération de mastocytes aux sites d’infections ou dans des cas d’allergie. Leur absence dans l’échantillon de peau étudié démontre donc qu’il ne s’agit d’aucun des cas mentionnés. De ce fait, l’équipe de G. Nolan conclut que les dommages constatés seraient liés à l’exposition à un signal ou une certaine forme d’énergie.
Les enjeux de l’approche scientifique
A travers sa présentation, Garry Nolan démontre l’importance d’une approche scientifique rigoureuse pour faire avancer nos connaissances sur les PAN. Avec l’inférence bayésienne, il propose et partage librement une méthode applicable par d’autres équipes dans le monde et permettant de présenter des niveaux de preuve conformes aux attentes des plus sceptiques.
Il rappelle que la science ne repose pas sur une vision binaire (vrai/faux) mais bien sur une échelle de certitude. La science avance pas à pas. Et plus les scientifiques seront nombreux à confirmer des hypothèses, plus nous pourrons nous rapprocher de la vérité.
Enfin, il est important d’ouvrir nos champs d’études sans préjuger de la pertinence ou de la valeur de chacun. L’ouverture des filtres de collecte de données a démontré son intérêt. Il doit en être de même avec les disciplines impliquées dans l’étude des échantillons ou données collectées.
Lexique
Capture neutronique : processus par lequel un noyau capture un neutron sans se désintégrer. Ils fusionnent pour former un noyau plus lourd.
EBSD (Electron Backscatter Diffraction) : technique d’analyse cristallographique locale basée sur l’exploitation des diagrammes de diffraction des électrons rétrodiffusés. Elle permet de relier la cristallographie à la microstructure de l’échantillon.
FLIR (Forward Looking Infra-Red) : technique de vision basée sur les infrarouges et non la lumière visible et qui permet de détecter les sources de chaleur.
Harold (Hal) Puthoff : PDG et président du conseil d’administration d’EarthTech International, Inc. et directeur de l’Institute for Advanced Studies d’Austin.
Harold (Hal) Puthoff: President, CEO and Chairman of the Board of EarthTech International, Inc. and Director of the Institute for Advanced Studies at Austin.
Mastocyte : cellule du tissu conjonctif qui sécrète des substances chimiques participant aux réactions de défense de l’organisme. Les mastocytes jouent un rôle prépondérant dans le recrutement précoce de cellules immunitaires et activent de nombreux médiateurs inflammatoires importants dans la réponse aux infections. Une hyperplasie mastocytaire est ainsi très souvent observée aux sites d’infections bactérienne, virale et parasitaire.
Source : Dawicki W, Marshall JS. New and emerging roles for mast cells in host defence. Curr Opin Immunol 2007; 19 : 31-8.
Problème P ≟ NP : conjecture en mathématiques, et plus précisément en informatique théorique, considérée par de nombreux chercheurs comme une des plus importantes conjectures du domaine, et même des mathématiques en général. L’Institut de mathématiques Clay a inclus ce problème dans sa liste des sept problèmes du prix du millénaire, et offre à ce titre un million de dollars à quiconque sera en mesure de démontrer P = NP ou P ≠ NP ou de démontrer que ce n’est pas démontrable. Ce problème est également le troisième problème de Smale.
Robert Spearing : directeur des enquêtes internationales pour le MUFON
Robert Spearing: Director of International Investigations, MUFON
ROEM : renseignement d’origine électromagnétique ou ROEM (en anglais : Signals Intelligence ou SIGINT) est un renseignement dont les sources d’information sont des signaux électromagnétiques
Sonde atomique tomographique : microscope analytique tridimensionnel de haute résolution qui permet d’observer la distribution spatiale des atomes dans un matériau en en connaissant la nature chimique avec une résolution d’environ cinq angströms.
Théorie de grande unification : En physique théorique, une théorie de grande unification, encore appelée GUT (pour “Grand Unified Theory” en anglais) est un modèle de la physique des particules dans lequel les trois interactions de jauge du modèle standard (électromagnétique, nucléaire faible et nucléaire forte) fusionnent en une seule à hautes énergies.



