Dénonciation d'un crime contre l'humanité

samedi 23 septembre 2017

5. Conférence Chemtrails au Parlement Européen Josefina Fraile 8 et 9 A...

Géo-ingénierie

La géo-ingénierie est l'ensemble des techniques qui visent à manipuler et modifier le climat et l'environnement de la Terre en première intention et à grande échelle. L'objectif est généralement correctif, plus que préventif (le préventif relevant plutôt des écotechnologies et de l'écoconception). Elle ne doit pas être confondue avec la géo-ingénierie du sous-sol (mines).

Législation

  . Depuis 1978 une Convention internationale (convention ENMOD) interdit d'utiliser des techniques de modification de l'environnement à des fins militaires (ou toutes autres fins hostiles). 74 pays sont signataires de cette convention ;

  . En 1972, dans le cadre du Protocole de Londres de 1996, les États membres de l'Organisation maritime internationale(OMI) ont voté une interdiction de fertilisation des océans dans les eaux internationales, avec une exception pour des « recherches scientifiques « légitimes » et de « petite échelle » » ;

  . En 1992 les objectifs de la Convention Cadre des Nations-Unies sur le changement climatique (CCNUCC) mentionnent dans son article 2 qu'elle vise à prévenir toute interférence anthropique dangereuse avec le climat. Lin (2009) juge que ceci inclut la géo-ingénierie, mais d'autres auteurs comme Bodansky en 2011 estiment que cette convention est juridiquement trop faible pour réellement s'imposer au politique ;

  . en 1992, au Sommet de la Terre de Rio, la Convention sur la diversité biologique demande aussi aux États de protéger la biodiversité. En 2010, la conférence des parties adopte un texte interdisant le déploiement de techniques d'ingénierie climatique , mais ce texte est un engagement non-contraignant et il tolère des expériences que les besoins de la recherche justifieraient ;

 . le 22 mars 1985 est lancé le protocole de Montréal relatif à des substances qui appauvrissent la couche d'ozone ; il rend théoriquement impossible (pour les 196 pays signataires) l'injection d'aérosols stratosphériques et de toute autre substance susceptible d'appauvrir la couche d'ozone.

( source : Wikipédia )

jeudi 21 septembre 2017

Smart Dust, la poussière intelligente (MZn°135)

Poussière intelligente

La poussière intelligente ("smartdust" en Anglais) est un réseau sans fil de minuscules systèmes microélectromécaniques(microelectromechanical systems en anglais, abrégés MEMS) de capteurs, de robots ou de dispositifs, qui permet de mesurer par exemple la lumière, la température ou des vibrations.

De tels systèmes peuvent théoriquement être mis en communication avec un serveur ou des systèmes d'analyse via un réseau informatique sans fil.

Cette poussière intelligente peut être dispersée dans un environnement donné (air, eau...) pour y effectuer certaines tâches simples, et renvoyer des informations (par radiofréquence).

( source : Wikipédia )


( source : lesechos )

Filamentation laser femtoseconde IR : Interaction de deux filaments et Source de rayonnement secondaire longue distance

Extrait



Les lasers femtoseconde amplifiés permettent grâce à leur très grande puissance d’étudier de nouveaux phénomènes physiques tels que la filamentation laser, le faisceau laser se propagent alors sur de grandes distances tout en maintenant une intensité crête élevée.

Un filament laser résulte d’une compétition dynamique entre l’effet Kerr (qui focalise le faisceau) et la défocalisation due au plasma généré par l’impulsion laser. Dans ce travail de thèse la filamentation d’un faisceau laser femtoseconde IR a été étudiée aussi bien en terme de processus non-linéaire, que du point de vue d’une source de rayonnements secondaires à grande distance. Lors d’une propagation sur très grande distance (kilomètre) la formation de plusieurs filaments est inévitable. L’interaction entre deux filaments a donc été étudiée méthodiquement dans un premier temps, ainsi que l’effet de cette interaction sur les rayonnements secondaires générés par filamentation.

Puis la génération de continuum de lumière blanche et d’émission conique par filamentation laser et la possibilité de générer un continuum de lumière blanche à grande distance ont été étudiées.

La génération efficace de troisième harmonique par interaction de deux filaments est démontrée et réinterprétée. L’effet de lentille moléculaire permettant de contrôler la distance entre deux filaments se propageant colinéairement a été démontré efficace pour contrôler à distance le rayonnement THz émis par bifilamentation laser.

Un grand nombre d’applications à la filamentation laser ont été proposées et/ou démontrées pour des domaines divers tels que la télédétection de la pollution atmosphérique , l’identification de cibles à distance , la génération de rayonnement TéraHertz (THz) à distance ou le guidage de décharges électriques et même de la foudre.

( sources : https://tel.archives-ouvertes )

Filamentation optique d’une impulsion laser femtoseconde dans l’air

Extrait

Principe de la filamentation laser 

D’ores et déjà, les lasers dit femtosecondes sont commercialisés et couramment utilisés en laboratoire et dans l’industrie. Ce type de laser émet des impulsions ayant une durée de l’ordre de quelques dizaines de femtosecondes, à une cadence qui peut aller de quelques Hz à plusieurs MHz.

 Chaque impulsion contient une énergie qui peut facilement atteindre 10 mJ voire quelques joules dans les installations les plus importantes. La puissance crête d’une impulsion étant donnée par la relation P ∼ WL/dt, oû WL est l’énergie de l’impulsion et dt sa durée, une impulsion de 100 fs avec un Joule d´énergie correspond donc à une puissance instantanée de dix térawatts. Or, le térawatt est comparable à la puissance électrique moyenne consommée sur la planète à chaque instant. On conçoit que la propagation d’une telle impulsion dans l’atmosphère n’obéit plus aux lois de l’optique classique, car les propriétés optiques de l’air sont modifiées en présence du champ électromagnétique intense

Le premier effet qui va intervenir est l’effet Kerr optique, représenté schématiquement sur la Figure 2.1. L’indice de réfraction de l’air est augmenté en présence d’un champ électromagnétique, selon la relation n = n0 + n2IL(r, t). Cet effet est bien connu depuis l’avènement des lasers dans les années 60, car il apparaît facilement dans les milieux denses où l’indice non linéaire n2I est grand, même pour des puissances laser de quelques Mégawatts . Il est notamment responsable de la cassure des matériaux amplificateurs dans les chaînes laser à haute puissance. 

En revanche, dans un gaz tel que l’air où l’indice est très voisin de celui du vide, la modification de l’indice est beaucoup moins importante, mais cumulés sur de longues distances, elle aboutit néanmoins à des effets spectaculaires. Pour bien comprendre cet effet cumulatif, considérons une tranche temporelle de l’impulsion au voisinage de son sommet et intéressons-nous à la répartition spatiale de l’intensité. Celle-ci (hormis cas exceptionnel) est maximale au centre du faisceau. L’effet Kerr optique réalise pour cette tranche temporelle l´équivalent d’une lentille, car le faisceau voit un indice plus important au centre de la pupille que sur les bords o`u l’intensité laser est faible.

 L’effet Kerr optique fera (11 2. Filamentation optique dans l’air) donc converger un faisceau initialement collimaté. Mais cet effet est cumulatif. En effet, au cours de la progression de l’impulsion dans l’air, l’intensité sur l’axe augmente à cause de l’effet précédemment décrit, ce qui augmente à son tour la variation de l’indice et donc l’effet de convergence.






On a l’équivalent d’une série de lentilles de plus en plus convergentes. Fig. 2.1 - Schéma de l’effondrement d’un faisceau laser femtoseconde de profil gaussien par effet Kerr contrebalancé par l’ionisation de l’air. Au-dessus d’une certaine puissance initiale appelée puissance critique Pcr, l’effet Kerr pourra même se poursuivre au-delà de la limite imposée par la diffraction. 

Cette puissance critique a pour expression dans le cas d’un faisceau de profils gaussiens : Pcr = 3, 77λ 2 0 8πn0n2 = 3, 2 GW où n0 est l’indice linéaire de l’air, λ0 = 800 nm est la longueur d’onde du laser et n2 = 3, 2.10−19 cm2 .W−1 est l’indice non linéaire de l’air responsable de l’effet Kerr. On a donc affaire à un effet catastrophique et l’on s’attend à un effondrement du faisceau, car même la diffraction naturelle serait incapable d’arrêter le processus. Cependant, avant d’atteindre cette limite où le diamètre du faisceau devient inférieur à la longueur d’onde, l’intensité devient tellement importante que d’autres effets, fortement improbables à plus faible intensité, entrent en jeu. L’effet principal est l’ionisation multi-photonique. 

Le champ électrique associé à l’impulsion laser devient suffisamment important pour arracher des électrons périphériques aux molécules d’oxygènes et d’azotes contenues dans l’atmosphère. Un plasma se forme alors rendant l’air électriquement conducteur.

( source : https://hal.inria )

vendredi 15 septembre 2017

lundi 11 septembre 2017

Miniaturisation et intégration d'antennes imprimées pour systèmes communicants ULB pulsés





Extrait de la thèse de A. Chami

Thèse dirigée par Georges KOSSIAVAS
25 Novembre 2011




                                                                          Préambule

lundi 21 août 2017

Diélectrophorèse





( source : liphy.ujf-grenoble )

samedi 19 août 2017

L’électroporation

L’électroporation est le nom donné au phénomène lors duquel la perméabilité de la membrane cellulaire augmente sous l’effet de courtes impulsions électriques (de l’ordre de la microseconde, ou de la milliseconde). [1] rappelle que l’électroporation a lieu lorsque le potentiel transmembranaire atteint un certain seuil. La valeur de ce seuil dépend des caractéristiques des impulsions appliquées et de la manière dont on le mesure, mais reste de l’ordre de 200 mV à 1V. De plus, la perméabilisation de la membrane peut être temporaire (on parle alors d’électroporation réversible), ou permanente (électroporation irréversible). Au-delà d’un certain voltage, la cellule ou le tissu subit des dommages thermiques.




( source : mdeville.perso.math.cnrs )

lundi 14 août 2017

Satellite d'observation de la Terre

Un satellite d'observation de la Terre est un satellite artificiel utilisé pour effectuer des observations géophysique et géographique de la Terre depuis l'orbite terrestre . Cette catégorie de satellite est utilisée à des fins telles que la météorologie, l'inventaire des ressources naturelles, la géodésie, l'étude et la modélisation du climat, la prévention et le suivi des catastrophes naturelles, la reconnaissance militaire... Les satellites d'observation de la Terre ont des caractéristiques très variables pour répondre à ces différents besoins : ils se distinguent notamment par leur résolution plus ou moins élevée, les instruments qu'ils embarquent (instrument optique, radar, instrument multi-spectral...), leur orbite et la taille. Ils peuvent être mis en œuvre pour répondre à des besoins scientifiques (modélisation climatique, structure de la Terre...) ou recueillir des données pour des usages opérationnels civils ou militaires. Ces satellites initialement mis en œuvre par des agences gouvernementales, font depuis peu l'objet d'une exploitation commerciale.

La majorité des satellites d'observation de la Terre font partie de la catégorie des satellites de télédétection dont les instruments analysent les ondes électromagnétiques (lumière visible mais aussi ultraviolet, infrarouge, rayons X...) émises par l'objet observé (au besoin le satellite émet un train d'ondes et analyse les ondes retournées : radar...). Typiquement les instruments utilisés sont des caméras, spectromètre, radar, radiomètre... SPOT ou METEOSAT rentrent dans cette catégorie.

D'un point de vue technique, cette catégorie de satellites regroupe à la fois des satellites civils et militaires. Lorsque le terme est utilisé pour identifier l'usage, le terme désigne généralement uniquement les satellites utilisés à des fins civiles.

( source : Wikipédia )

Schéma du satellite Jason-2







( source : Wikipédia )

samedi 5 août 2017

Le système haptique côté perception : la somesthésie

La somesthésie est liée à l’ensemble des sensibilités cutanées et internes. Elle est composé par :

      . le sens tactile: il est relayé par les récepteurs sensoriels situés sous l’épiderme, et dont on relève la plus grande densité dans la main. Ces récepteurs relaient « le contact initial avec l’environnement », et permettent d’en appréhender la géométrie détaillée de la surface, la rugosité, la température (toujours de surface).

     . le sens kinesthésique: du grec kinêsin signifiant « se mouvoir » et aisthêsis signifiant sensation , il se réfère à la kinesthésie, la sensation interne du mouvement des parties du corps assurée par le sens musculaire (sensibilité profonde des muscles) et par les excitations de l’oreille interne [Le Petit Robert]. Ce sens permet de connaître l’effort que font nos muscles par exemple lorsque nous soulevons (poids) ou lorsque nous poussons (résistance) un objet.


La perception tactile

Les récepteurs physiologiques de la perception tactile se trouvent dans la peau (figure 1.1). La bande passante du sens tactile (c’est à dire la fréquence à laquelle les stimuli tactiles sont perçus) et de 0 à 400 Hz (Shimoga, 1992). Elle peut cependant monter à des très hautes fréquences situées entre 5000 à 10000 Hz dans le cas de la reconnaissance de textures à très petits détails.



Nous pouvons distinguer 3 natures de récepteurs tactiles :

     . les thermorécepteurs : liés aux sensations de chaud et de froid;
   . les nocirécepteurs : liés à la sensation de douleur;
     . les mécanorécepteurs : liés à la discrimination tactile.

On distingue 4 types de mécanorécepteurs (Cholewiak et Collins, 1991), (Kalawsky, 1993), (Seow, 1995); Il sont présentés dans le tableau 1.2.



Tous ces récepteurs sont donc situés dans la peau, mais dans des concentrations différentes selon les endroits du corps.

La perception kinesthésique

Le sens kinesthésique intègre les informations sur les positions, les mouvements et les forces appliqués sur ou par le corps. Il est relayé par des récepteurs situés dans les tendons musculaires au niveau des articulations, ainsi que dans l’oreille interne. La bande passante de ces récepteurs est plus basse que ceux de la perception tactile soit de 20 à 30 Hz.

( source : tornil.me )

Spectroscopie de résonance acoustique

La spectroscopie par résonance acoustique (ARS) a été développée en 1989 par Dipen Sinha du Laboratoire national de Los Alamos. Il avait combiné un vieil analyseur de balayage de fréquence avec deux capteurs piézoélectriques. Un capteur était utilisé comme émetteur et l’autre comme récepteur. Lorsque l’émetteur vibrait l’objet examiné, le récepteur enregistrait la vibration de résonance et un spectre de fréquence. La spectroscopie par résonance acoustique est une technique non destructive qui permet de détecter les molécules rapidement.

Technique

La technique consiste à exciter un objet avec un balayage rapide d’onde acoustique pour faire vibrer l’objet en mode normal de vibration. Ce dernier est en fait une oscillation de l’objet à la suite d'une perturbation qui est semblable à l’état stable de l’objet, cette oscillation est alors associée à une fréquence. Le domaine des ondes de cette technique est large, puisqu’il inclut les ultrasons et les infrasons qui ont une fréquence variant de 0 à 10 MHz. Cela permet de produire un spectre de résonance acoustique de l’objet. À l’aide de ce spectre, beaucoup d’informations sur la structure et sur la composition de l’objet peuvent être déterminées.

( source : Wikipédia )

Principe de l’effet photoacoustique


( source : photoniques.com )

Potentiel évoqué

Un potentiel évoqué (PE, dit aussi ERP pour l'anglais Event-Related Potential) désigne la modification du potentiel électrique produite par le système nerveux en réponse à une stimulation externe, notamment sensorielle (un son, une image, etc.) mais aussi à un événement interne, notamment une activité cognitive (attention, préparation motrice, etc.) et enregistré grâce à des techniques comme l'électroencéphalographie (EEG) ou la magnétoencéphalographie (MEG). 

Les potentiels évoqués sont utilisés en neurophysiologie humaine et animale pour comprendre l'organisation fonctionnelle du système nerveux dans la recherche en neurosciences et tester son intégrité dans le cadre d'examens médicaux en neurologie. Ces signaux électriques étant en général très faibles (de l'ordre du micro-Volt), il est souvent nécessaire de répéter l'enregistrement un grand nombre de fois de façon à moyenner toutes ces mesures pour augmenter le rapport signal sur bruit et obtenir une caractérisation fiable du potentiel évoqué. Le potentiel peut alors être décrit par différents paramètres comme son amplitude, sa latence, etc.

( source : Wikipédia )

Photoacoustique

La photoacoustique (ou optoacoustique ) désigne la génération d'ondes mécaniques dans un objet illuminé par une radiation électromagnétique.

Peu de progrès furent faits avant les années 1970 à cause du manque de source de lumière utilisable et ce n'est qu'avec l'essor du laser que l'effet photoacoustique est ressorti de l'ombre. Dès lors les scientifiques perçurent son intérêt, notamment pour la biophysique et même la médecine. En effet les ondes photoacoustiques combinent les avantages de l'optique et de l'acoustique : le contraste en absorption optique, couplé avec la faible atténuation acoustique dans les tissus mous permettent d'envisager une application directe en imagerie médicale.

De plus la gamme de fréquences électromagnétiques pouvant aller du visible aux ondes radiofréquences en passant par les micro-ondes, on peut ainsi relier les contrastes des images à différentes informations moléculaires et fonctionnelles.

Principe physique

Fondamentalement le principe de l'effet photoacoustique est simple : une onde électromagnétique, absorbée dans un objet, voit son énergie convertie en chaleur. Comme la température augmente localement, il s'opère une dilatation thermique des tissus, générant ainsi une onde acoustique dans l'objet.

Cependant une dilatation constante des tissus ne crée pas d'onde mécanique, il faut des cycles de dilatation-compression pour cela. C'est pourquoi la source de lumière doit varier dans le temps. Principalement, deux modes d'émission de l'onde électromagnétique sont utilisés : l'impulsion ou l'onde continue à intensité modulée. Mais le plus souvent on choisit le mode impulsionnel qui donne le meilleur ratio signal sur bruit, en permettant en plus de modéliser la naissance des ondes de matière comme un "Dirac" acoustique tant l'échelle de temps diffère entre optique et ultrasons. Par ailleurs c'est ce mode-là uniquement qui sera décrit par la suite.

Théoriquement l'absorption d'une onde électromagnétique est liée à la composition particulaire de la matière. Celle-ci est composée de particules chargées comme des électrons, des noyaux ou même des ions, et l'onde interagit avec ces charges par diffusion élastique, diffusion Raman, absorption, etc... Lors d'une interaction d'absorption l'énergie absorbée peut être transformée en chaleur, convertie dans une réaction chimique ou en fluorescence.

Parmi toutes ces interactions seule la portion transformée en chaleur participe à l'effet photoacoustique, et dans la plupart des cas, dans les expériences de photoacoustique, c'est cet effet qui domine. La fluorescence devient importante uniquement quand la radiation utilisée a une fréquence dans le violet ou l'ultraviolet, ce qui est peu commun généralement dans les applications que l'on retrouve en biomédecine. 

La capacité à absorber la lumière dépend des conditions environnementales, de la constitution moléculaire de la matière mais également de la polarisation de l'onde électromagnétique et de sa longueur d'onde. Ce dernier point est particulièrement intéressant car il justifie que la photoacoustique soit adaptée pour des manipulations de spectroscopie.

Pour générer l'onde photoacoustique, l'onde électromagnétique utilisée doit avoir une durée d'impulsion suffisamment courte pour que la diffusion thermique puisse être négligée.

La quantité de chaleur générée dans le tissu est généralement proportionnelle à la puissance de la radiation reçue.

( source : Wikipédia )

La photoacoustique est un des moyens utilisés par les nanosciences et nanotechnologies sur de nombreuses personnes, victimes de harcèlement électromagnétique ou de torture . Les nanosciences et nanotechnologies l'utilisent à des fins d'expériences, par exemple, provoquer des potentiels évoqués.

vendredi 4 août 2017

Photolyse

On appelle photolyse toute réaction chimique dans laquelle un composé chimique est décomposé par la lumière. Le processus direct est défini comme l'interaction d'un photon inter-réagissant avec une molécule cible.

La photolyse n'est pas limitée à la lumière visible par définition comprise entre 400 et 800nm. Tout photon avec suffisamment d'énergie peut affecter les liaisons chimiques d'un composé chimique. Comme l'énergie d'un photon est inversement proportionnelle à sa longueur d'onde, les ondes électromagnétiques avec l'énergie de la lumière visible ou plus élevée, telles que l'ultraviolet, les rayons X et les rayons gamma sont habituellement impliquées dans de telles réactions.

( source : Wikipédia )

samedi 29 juillet 2017

Intrication quantique

En mécanique quantique, l'intrication quantique, ou enchevêtrement quantique, est un phénomène dans lequel deux particules (ou groupes de particules) ont des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare. Un tel état est dit « intriqué » ou « enchevêtré » parce qu'il existe des corrélations entre les propriétés physiques observées de ces particules distinctes : cet état semble contredire le principe de localité. Ainsi, deux objets intriqués O1 et O2 ne sont pas indépendants même séparés par une grande distance, et il faut considérer {O1+O2} comme un système unique.


( source : Wikipédia )

lundi 17 juillet 2017

Cause

On entend généralement par cause d’un fait ce qui le produit ou du moins qui participe à sa production. En cas de cause complexe, on nomme facteurs les éléments qui y participent. Donner sa cause revient à rendre un fait intelligible en répondant à la question : « Pourquoi ce fait a-t-il lieu ? ».

Qu'est ce qu'une cause ?

La « cause » en sciences physiques

On peut poser la question de la cause d'un fait physique expérimental, dès lors qu'on peut dire clairement si ce fait a eu lieu ou non. À la question « pourquoi tel fait est-il observé ? » la réponse est toujours un ensemble de conditions initiales du système étudié et de lois physiques. Ces conditions sont-elles nécessaires ? Il est souvent difficile de le savoir car le fait pourrait certainement être produit autrement. Sont–elles suffisantes ? Oui, mais prises ensemble : tout le dispositif expérimental suffit à produire le résultat, ce qui exclut de pouvoir répondre à la question « pourquoi ? » de manière simple. L’explication scientifique se ramène donc à la donnée d’un dispositif expérimental qui suffit à produire le fait observé, sans que ce dispositif soit nécessaire.

Pour affiner la compréhension du phénomène, le physicien va donc dépouiller son dispositif pour le réduire au minimum nécessaire à produire le fait, c'est dans ce minimum qu'il va trouver ce qu'il appellera les causes du phénomènes. On en revient à l'exigence du suffisant et nécessaire qui satisfait la demande d'explication, comme en mathématiques.

Le déterminisme scientifique

La cause en philosophie des sciences : même si, on l’a vu, la causualité en physique est à manier avec précaution, elle tient une place importante en philosophie de la physique. Car si on peut lire des livres entiers de théories physiques sans qu’il n’y soit jamais fait mention de « cause », l’épistémologie est au contraire « obsédée » par la causalité. L’idée fondamentale de toute science véritable est que les faits n’arrivent pas par hasard, que leur production est la conséquence de faits qui l’ont précédés. La science refuse de croire que les faits se produisent sans causes, spontanément.

( source : Wikipédia )

samedi 15 juillet 2017

Argumentation

L’argumentation est l'action de convaincre et pousser ainsi l'autre à agir. Contrairement à la persuasion, elle vise à être comprise de tous et rechigne à utiliser des arguments fallacieux.

Une argumentation est composée d'une conclusion et d'un ou de plusieurs « éléments de preuve », que l'on appelle des prémisses ou des arguments, et qui constituent des raisons d'accepter cette conclusion. On distingue 3 grands groupes :

  . l'art de démontrer (on s'appuie sur des faits, des preuves, une loi incontestable),

  . l'art de persuader (l'émetteur fait appel au sentiment des destinataires (émouvoir, rire ou encore provoquer))

  . l'art de convaincre (l'auteur fait appel à la raison du destinataire, mais sans utiliser de faits scientifiques).

Une argumentation convaincante peut bien souvent consister à simplement énoncer un fait, afin de permettre à l'interlocuteur d'en avoir connaissance. 

Un argument n'est ni une démonstration, ni une preuve :

  . La démonstration est une conclusion logique. Démontrer, c'est établir la vérité d'une phrase abstraite par des moyens strictement logiques.

  . La preuve est une évidence concrète, empirique. Prouver, c'est montrer un objet ou causer un événement.

( source : Wikipédia )

mardi 11 juillet 2017

Signes cliniques trompeurs

La physique quantique a donné les moyens aux nanosciences et nanotechnologies d'avoir des instruments qui génèrent de la filamentation laser femtosecondes dans l'air ( photo ci-dessus , invisible à l'œil nu ).

Selon Grégoire Méchain , "nous avons démontré expérimentalement qu’il était possible de maîtriser le processus de filamentation et la formation de canaux de plasma sur de longues distances."

La longueur d'onde d'émission de la source électromagnétique ( optique quantique ) , qui varie continûment , interagit avec le corps . La forte absorption d'énergie provoque un dysfonctionnement de l'organisme .

Les signes cliniques ne sont donc pas systématiquement la manifestation d'une maladie , ça peut être aussi la manifestation d'un harcèlement électromagnétique pulsé et ciblé .

Un médecin peut donc diagnostiquer faussement un syndrome d'Asperger par exemple .

mercredi 5 juillet 2017

L’instantanéité de l’effet tunnel en mécanique quantique

L’effet tunnel

                                    Illustration de la différence entre mécanique classique et
                                                                mécanique quantique

L’effet tunnel est un des phénomènes les plus étranges en physique quantique, la figure ci-dessus en illustre le concept : en physique classique une balle lancée contre un mur rebondit et n’a aucune chance de franchir le mur si elle ne possède pas la vitesse et donc l’énergie nécessaire. En physique quantique le cas est diffèrent, lorsqu’une particule se retrouve face à une barrière de potentiel alors même si cette particule ne possède pas l’énergie requise pour franchir la barrière, elle a une certaine probabilité de la franchir tout de même.

L’instantanéité de l’effet tunnel, entre mesure et théorie

Ce concept d’effet tunnel implique une autre conséquence : il est instantané, en effet il n y a aucun délai théoriquement entre le passage de la particule d’un côté ou de l’autre de la barrière. Or jusqu’à maintenant les mesures ont toujours mis en évidence une durée non nulle (mais tout de même très très courte de l’ordre de l’attoseconde soit un milliardième de milliardième de seconde).

Or des chercheurs ont récemment trouvé la cause de cette durée (article arXiv ici) : En étudiant le phénomène d’ionisation par effet tunnel d’un atome par un photon (éjection d’un électron de l’atome en le bombardant avec un photon) les chercheurs ont mesuré le temps nécessaire pour l’éjection de l’électron ainsi que l’angle d’éjection et ont pu en conclure que celui-ci était freiné par l’effet du champ électrique de l’atome.

( source : metricofscience )

mardi 4 juillet 2017

La spectroscopie laser

La spectroscopie d'absorption consiste à faire varier continûment la longueur d'onde d'émission d'une source lumineuse qui interagit avec un milieu matériel et à détecter l'intensité transmise.

Le signal ainsi optenu s'appelle un spectre . 

A certaines longueurs d'onde bien précises, la lumière entre en résonance avec le milieu car celui-ci possède une fréquence propre égale à la fréquence excitatrice de la lumière.

Cette lumière sera alors absorbée partiellement ou complètement. En détectant l'intensité lumineuse transmise par le milieu qui module l'absorption, on connaîtra les fréquences caractéristiques du milieu.

( source : Le laser - F.Bretenaker, N.Treps )

mardi 27 juin 2017

Industrie de l'armement

L'industrie de l'armement est la branche du secteur industriel consacrée à la fabrication et au commerce des armes dans les domaines civil et militaire.

Aujourd'hui, les principaux usagers des armes restent les États, qui tout en contrôlant le développement, la production et l'accès, les destinent en premier lieu aux militaires et à la police.
( source Wikipédia )


Derrière le harcèlement électromagnétique et au regard des moyens utilisés , se cache à l'évidence l'industrie de l'armement , qui se sert des victimes comme sujets d'expériences .

intelligence artificielle

Extrait

Nouvelle attaque de scientifiques de renom contre les dangers potentiels de l'intelligence artificielle. Dans une lettre publiée sur le site de l'institut Future of Life, plus de mille chercheurs s'alarment de l'évolution des armes, qui deviennent capables "de sélectionner des cibles et de combattre sans l'intervention de l'humain".

C'est bien la "course à l'armement" en matière d'armes autonomes qui inquiète les chercheurs. "Les armes autonomes ont été décrites comme la troisième révolution dans les techniques liées à la guerre, après la poudre à canon et les armes nucléaires".

Plus de 1000 experts en robotique et en intelligence artificielle ont signé une lettre qui alerte sur le développement de l'intelligence artificielle militaire et les "armes autonomes" capables d'ôter la vie.
( source : lexpress )

Jean-Yves Le Drian, qui s’est exprimé sur ce sujet à l’occasion d’un récent colloque, « l’intelligence artificielle est un élément de notre souveraineté nationale ». D’après les propos qu’il a tenus et qui ont été rapportés par l’Usine Nouvelle et Acteurs Publics, il estime qu’il s’agit même d’une « troisième révolution stratégique, dite troisième offset » après « l’hypervélocité et la lutte sous-marine. » Et c’est d’ailleurs la raison pour laquelle, « nos alliés », et en particulier les États-Unis, l’ont placée « au cœur de la stratégie de sauvegarde de leur défense et de leur souveraineté. »
( source : opex360 )


Il existe des indices graves et concordants sur l'utilisation de l'intelligence artificielle contre de nombreuses personnes victimes du harcèlement électromagnétique .

mardi 20 juin 2017

Manifestation du 17 juin 2017 Place de la République à Paris

L’amitié et le courage ont été les rayons de soleil de cette journée de protestation , dans un esprit d'échange et de dialogue . Un grand merci à l'association ADVHER , à Debout Education Populaire , aux victimes Polonaises de l’association STOPZET , à Pieter Huylenbroek et à toutes les personnes qui ont bien voulu nous écouter et partager leur savoir .

vendredi 16 juin 2017

Manifestation Place de la République à Paris le 17 juin 2017 à 12 H

Mobilisation contre les abus des nanosciences et nanotechnologies .

samedi 10 juin 2017

Principe général de la pince optique

Le principe de la pince optique est de piéger un objet de petite dimension (molécule, cellule...) à l'aide d'un faisceau laser. Un déplacement précis de cet objet est alors permis par simple déplacement du faisceau laser de piégeage . Physiquement le piège de la pince optique repose sur un équilibre entre la force résultant du gradient d'intensité du laser focalisé et la force de pression de radiation exercée par la diffusion de la lumière sur l'objet.

( source : Wikipédia )

jeudi 25 mai 2017

Spectroscopie

La spectroscopie, ou spectrométrie, est l'étude expérimentale du spectre d'un phénomène physique, c'est-à-dire de sa décomposition sur une échelle d'énergie, ou toute autre grandeur se ramenant à une énergie (fréquence, longueur d'onde, etc.).

On analyse par spectroscopie non seulement la lumière visible, mais aussi le rayonnement électromagnétique dans toutes les gammes de fréquence, les ondes élastiques comme le son ou les ondes sismiques, ou encore des particules .

Spectroscopie d'absorption moléculaire


Les rayonnements électromagnétiques exploités vont de l'ultraviolet jusqu'aux ondes radio :
Onde électromagnétiqueTransition électronique, vibration ou rotation moléculaires3Spectroscopie
Ultraviolet et VisibleTransitions électroniquesSpectroscopie ultraviolet-visible
InfrarougeVibrations de moléculesSpectroscopie infrarouge
Combinaison vibration-rotation de moléculesSpectroscopie Raman
Micro-ondesRotations de moléculesSpectroscopie micro-onde
Ondes radioRotations de molécules
( source : Wikipédia )

D'après les éléments de fait dont je dispose  , la spectroscopie est utilisée arbitrairement sur des personnes ciblées à des fins psychophysiques et psychoacoustiques. Principalement la spectrométrie plasma induite par laser .

La psychophysique est une branche de la psychologie expérimentale qui cherche à déterminer les relations quantitatives qui existent entre un stimulus physique et la perception qu'on en a.

La psychoacoustique est la branche de la psychophysique qui étudie les rapports entre les perceptions auditives de l'être humain et les sons qui parviennent à ses oreilles. Elle fait appel à l'acoustique, qui étudie la nature et les propriétés des ondes sonores, à la physiologie de l'audition, qui examine dans quelle mesure elles se transforment en influx nerveux, à la psychologie et aux sciences cognitives.
( source : Wikipédia )

lundi 22 mai 2017

Stop Electronic Harassment/Harcèlement électromagnétique



Cette vidéo m'a été envoyée par Bogéna Kvaltinova


Mobilisation contre les abus des nanosciences et nanotechnologies

jeudi 11 mai 2017



La science est un danger public.Elle est aussi dangereuse qu’elle a été bienfaisante. Toute découverte de la science pure est subversive en puissance ; toute science doit parfois être traitée comme un ennemi

( Huxley)

lundi 17 avril 2017

Speckle d'un faisceau laser



Les petits losanges que vous voyez sur le verre de mes lunettes sont de minuscules speckles issues d'interférences optiques provenant d'un laser à impulsions brèves et ultra-intenses type laser femtoseconde ou lidar . Ce qui est encore plus grave c'est que j'en capture aussi à l'intérieur de mon domicile . Ces speckles caractérisent une information de type pixel ou voxel .
À l'œil nu on voit seulement que de très petites particules comme de la poussière, mais avec un zoom on voit clairement la forme en losange de l'interférence optique .


Speckles d'interférences optiques capturées ,  avec un caméscope en position zoom , sur l'éclairage de lampadaires .  


Speckles sur le verre de mes lunettes , capture avec mon caméscope en position zoom à l'intérieur de mon domicile .

Les conséquences sont extrêmement graves ,  avec ce système , l'opérateur peut faire de la télémanipulation sur des cibles humaines ( piqûres , petits trous dans la peau comme sur la photo ci-dessous , excitation de la membrane cellulaire et des neuromédiateurs (appelée également neurotransmetteur), etc. ) ...

Cette contrainte provoque un comportement étrange , l'influx nerveux ne peut se propager naturellement , normalement . En effet , le champ électrique intense ( laser-plasma ) provoque l'excitation forcée de la membrane cellulaire et des organites à l'intérieur de la cellule , lesquels déclenchent des neurotransmetteurs (les neurotransmetteurs sont des composés chimiques libérés par les neurones) , par exemple l'acétylcholine , la sérotonine , la dopamine ...

Lorsque l'intensité du champ électrique en un point à la surface de la peau est ultra-intense , ça déclenche des potentiels post-synaptiques , les muscles se contractent .

                                                      ( source : lfp-tpe-2016.wixsite )













                                                           ( source : db-gersite )

L'opérateur utilise la violence pour infliger de fortes souffrances à sa victime . Cela à des fins
d'expérimentations cognitives et biologiques .

Des sons binauraux ou isochrones sont également utilisés par l'opérateur .

Copernicus est le nom d'un « programme européen de surveillance de la Terre ».

Or , Copernicus connaît vraisemblablement ce système , pourquoi laisse t'il faire ?

Dans le cas contraire , comment se fait-il qu'il ne s'en soit jamais aperçu ?

Où alors , ce programme est-il impliqué ?

Déposer plainte contre Copernicus me semble possible , je vais me renseigner.


mercredi 5 avril 2017

Copernicus (programme)

Copernicus est le nom d'un « programme européen de surveillance de la Terre ». Ce programme était auparavant nommé Global Monitoring for Environment and Security ou GMES dans les versions anglaises (on conserve parfois dans la version française le sigle GMES, utilisé par tous les acteurs européens).

Il s'agit d'une initiative conjointe de l'Agence spatiale européenne (ESA) et, au travers de l'Agence européenne pour l'environnement (AEE), de l'Union européenne, qui vise à doter l'Europe d'une capacité opérationnelle et autonome d'observation de la Terre en tant que « services d’intérêt général européen, à accès libre, plein et entier ».

La France s'y associe notamment via le « plan d’applications satellitaires » du ministère du développement durable, décidé en 2011.

Objectifs

Ce programme vise à rationaliser l'utilisation de données relatives à l'environnement et à la sécurité issues de sources multiples, afin de disposer d'informations et de services fiables chaque fois que cela est nécessaire. En d'autres termes, Copernicus permettra de rassembler l'ensemble des données obtenues à partir de satellites environnementaux et d'instruments de mesure sur site, afin de produire une vue globale et complète de l'état de notre planète.

Les décideurs politiques font partie des principaux utilisateurs du programme Copernicus, qui leur permet de préparer les législations nationales, européennes et internationales relatives à l'environnement (y compris celles sur le changement climatique et le droit international de la mer) et de vérifier la bonne application de ces législations.

Copernicus s'appuie sur quatre « piliers » :

   1. une composante spatiale (constituée de satellites d'observation du sol, des océans et de                        l'atmosphère),
   2. une composante in-situ (constituée d'instruments de mesure au sol ou aériens mesurant des                  paramètres relatifs à l'état des océans, du sol et de l'atmosphère),
   3. une composante normalisation et harmonisation des données,
   4. une composante de services à l'utilisateur.

L'information offerte par le programme Copernicus sera regroupés autour de six thèmes : le sol, les océans, le traitement de l'urgence, l'atmosphère, la sécurité et le changement climatique. Les services relatifs au sol, aux océans et au traitement de l'urgence et ceux relatifs à l'atmosphère et à la sécurité (aussi appelés « services pilotes ») ont été officiellement lancés à l'occasion du Forum Copernicus à Lille en septembre 2008. Ces services, actuellement en phase pré-opérationnelle, devaient entrent en phase opérationnelle en 2011 et être pleinement opérationnels en 2014.

Copernicus est donc en marche vers son fonctionnement opérationnel. La définition et la mise en place d'une gestion et d'une structure de financement européennes sont des éléments clés de la réussite du programme.

Historique

Chronologie

. 19 mai 1998 : les institutions participant au développement des activités spatiales européennes donnent naissance au GMES par la déclaration connue sous le nom de « Baveno Manifesto ». À l'époque, GMES signifie « Global Monitoring for Environmental Security » (surveillance mondiale de la sécurité environnementale).

. 1999 : GMES change de signification et devient « Global Monitoring for Environment and Security » (surveillance mondiale de l'environnement et de la sécurité), illustrant ainsi que la surveillance de l'environnement a également des implications en termes de sécurité.

. 15-16 juin 2001 : à l'occasion du sommet de Göteborg, les chefs d'États et de gouvernements demandent que la Communauté contribue à l'établissement d'une capacité européenne de surveillance globale pour l'environnement et la sécurité à horizon 2008.

. Octobre 2002 : la nature et le périmètre de la composante « sécurité » du GMES sont définis comme couvrant la prévention et le traitement des crises liées aux risques naturels et technologiques, à l'aide humanitaire et à la coopération internationale, à la surveillance du respect des traités internationaux pour la prévention des conflits, l'aide humanitaire et le secours, les opérations de maintien de la paix et la surveillance des frontières de l'Union européenne.

. Février 2004 : la communication de la Commission « GMES : mise en place d'une capacité GMES d'ici 2008 » introduit un plan d'action visant à établir une capacité GMES en 2008. En 2004, un accord cadre entre la Commission européenne et l'Agence spatiale européenne (ESA) est également signé afin d'établir les fondements de la composante spatiale du GMES.

. Mai 2005 : la communication de la Commission « GMES: du concept à la réalité » établit les priorités pour l'entrée en service des services GMES en 2008, en mettant l'accent sur les services de surveillance du sol, de surveillance des océans et de traitement de l'urgence. Des services ultérieurs appelés « services pilotes » traiteront de la surveillance de l'atmosphère, de la sécurité et du changement climatique.

. Juin 2006 : la Commission européenne crée le Bureau GMES, avec comme mission principale d'assurer la disponibilité à l'horizon 2008 des services jugés prioritaires. Le Bureau a également pour objectif de traiter les questions de gestion du GMES et du financement du système à long terme.

. Mai 2007 : adoption de la Communication sur la politique spatiale européenne, reconnaissant GMES comme une initiative phare de la politique spatiale de l'Union.

. Septembre 2008 : lancement officiel des trois services FTS et des deux services pilotes dans leur version pré-opérationnelle, à l'occasion du Forum GMES de Lille.

. Novembre 2008 : la communication de la Commission « GMES: le souci d'une planète plus sûre » établit la base des futures discussions relatives au financement, à l'infrastructure opérationnelle et à la gestion effective du GMES.

. Mai 2009 : la proposition de la Commission concernant un règlement sur « le programme européen d'observation de la terre (GMES) et sa mise en œuvre initiale (2011-2013) » propose une base légale pour le programme GMES et le financement par la Commission européenne de sa mise en œuvre initiale.

. Novembre 2010 : le règlement sur « le programme européen d'observation de la terre (GMES) et sa mise en œuvre initiale (2011-2013) » entre en vigueur.

( source : Wikipédia )

lundi 3 avril 2017

Devenir du faisceau laser lors de son contact avec la peau



Effets du laser sur les tissus

Les impacts produits par le rayonnement laser sur les tissus vivants dépendent de la puissance émise par unité de surface et de la durée d’exposition au rayonnement . Celui-ci est transformé en d’autres formes d’énergie quand il est absorbé par les tissus cibles.

Dans des ordres décroissant d’irradiance (puissance/cm2) et croissant de durée d’exposition, ces effets peuvent être photo spasmolytiques, photo-ablatifs, photothermiques ou photochimiques : une irradiation faible associée à une durée de traitement de plusieurs minutes convertit l’énergie lumineuse en énergie chimique

Effets photo spasmolytiques

Un laser de grande puissance (de l’ordre du kW/cm2 délivré par une fibre optique de quelques microns) émettant des impulsions de l’ordre de la picoseconde génère des champs électriques tels que les effets électromécaniques sont capables de porter un matériau à l’état d’un gaz ionisé et désordonné, appelé plasma.

L’onde de choc associée à la formation et à l’expansion de ce plasma engendre des ondes de pression extrêmement importantes et, par conséquent, une rupture mécanique du matériau.

( source : lepointveterinaire )

mercredi 8 mars 2017

Laser femtoseconde et scientifiques

« Nous avons l'habitude d'avoir un problème et de chercher une solution. Dans le cas du laser, nous avons déjà la solution et nous cherchons le problème » annonce Pierre Aigrain (ancien secrétaire d'État à la Recherche, Chercheur et membre de l'Académie des Sciences à l'époque de la découverte du laser)

La  solution qui cherche un problème  ! .  

Le laser dépend de la volonté , du bon plaisir de quelqu'un et intervient , en ce qui concerne le système à énergie dirigée , en violation de la loi . 

Dans ce cas  , le laser est une solution pour le tyran et un problème pour les victimes .

mercredi 8 février 2017

Vibro tactile - haptique

Le système à énergie dirigée en question de type optronique, est composé de nombreux dispositifs, dont un dispositif vibro tactile et un autre haptique.

Par ce biais, l'opérateur torture sa victime physiquement et moralement, la victime est désorientée, traumatisée et devient vulnérable.

Avec les moyens technologiques dont il dispose et selon sa volonté, l'opérateur se joue de la sémiologie, de la dialectique et de la rhétorique , il en résulte que la victime n'est plus tout à fait elle-même , ça la discrédite et dupe le corps médical.

L'intention de l'opérateur est manifestement arbitraire, il tend à asservir sa victime dans son unique intérêt.

lundi 6 février 2017

Message de Derrick Robinson

Traduction Google

RECOURS COLLECTIF MISE À JOUR ...
03/02/2017

Ce procès est sur le gouvernement et les entrepreneurs de la défense des expériences se déchaînent. Il est à propos de l'abus de technologies nouvelles et classées par des éléments criminels au sein de ces organisations. Plus précisément, il est à propos de l'utilisation intentionnelle de rayonnements électromagnétiques sur des civils américains innocents, à des fins malveillantes.

En fait, les expériences ne sont plus
 en fait des expériences, ils ne sont pas destinés à être des expériences. Au cours des dernières décennies, ils se sont transformés en crimes en cours. Ces crimes sont enveloppées derrière classification et compartimentage procédures, construites dans le-état profond à des fins nobles, qui sont actuellement exploitées comme couverture pour ce qui est devenu un programme de soumission massivement illégale.

Nos corps sont composés de petits blocs de construction appelés atomes, et
 de nos atomes sont mis en orbite par un ou plusieurs particules sensibles à l' électricité appelées électrons. Ces électrons sont très vulnérables aux perturbations électriques et électromagnétiques,. Nous savons tous que l' exposition au rayonnement électromagnétique dans le spectre ultraviolet peut causer des dommages à notre peau, et nous savons que l' exposition à un rayonnement électromagnétique dans le spectre de rayons X peut causer des dommages à nos organes internes. Toutefois, sauf si vous êtes un ingénieur de fréquence radio, vous êtes probablement pas au courant des divers effets non thermiques des rayonnements électromagnétiques qui peuvent manipuler et perturber l' ensemble de nos systèmes biologiques - y compris nos cerveaux et nos brainwaves.

Ce procès va prouver que
 les chercheurs au sein du complexe militaro-industriel ont étudié, testé et mis au point des appareils sophistiqués pour exploiter les effets non thermiques des rayonnements électromagnétiques. Il prouvera que des éléments criminels au sein de ces organisations ont militarisé ces dispositifs et sont les utiliser illégalement sur Américains citoyens. Ce procès va prouver que les membres de ces organisations - qui sont censés être les gardiens de la démocratie - ont enfreint de manière flagrante la confiance du peuple américain pour faire avancer leur pouvoir et assouvir leur cupidité. Malheureusement, ils sont treasonously atteignent leurs objectifs égoïstes en torturant, abuser, et subjuguer innombrables citoyens américains avec ces armes furtives.
Armes électromagnétiques sont pas d' armes plus exotiques, ou farfelues, que biologiques, chimiques ou nucléaires. Cependant, ils sont plus dissimulable, et ces crimes dépendent de Dissimulation. Le Dissimulation laisse les victimes sans recours, même avec les communautés d'application médecine et de droit. Le Dissimulation laisse également les auteurs sans responsabilité. Cela permet actuellement le crime parfait. En conséquence, une forme moderne de l' esclavage est créé.

Il est un fait intemporel qui le pouvoir corrompt. Voilà pourquoi nous avons
 des lois et une constitution. Voilà pourquoi nous avons des freins et contrepoids, et une déclaration des droits. Il est tout d' être compromise par ces crimes émergents impliquant des armes électromagnétiques. Le nombre de victimes augmente de façon exponentielle chaque année. Alors que nous sommes de retour dans l' ignorance ou la peur, nos voisins et nos proches sont détruits ou réduits en esclavage, et nous nous deviennent plus faibles - et la démocratie crumbles. Chacun d' entre nous pourrait être le prochain si nous ne brillons une lumière sur cette cabale criminelle. La période de déresponsabilisation se termine par ce procès.

Note: Nous visons toujours avoir quelque chose à
 la mi-2017, et nous pourrions certainement utiliser un peu d' aide la compilation de la recherche et des données. Le travail sera fastidieux, mais il est essentiel, et il obtiendra ces crimes arrêtés dans le long terme. Donc , passer le mot, et si elle est quelque chose que vous êtes intéressé, s'il vous plaît contactez - moi et mettez "volontaire" dans la ligne objet. Je ne vais pas être en mesure de superviser le travail, donc si vous êtes un self-starter, s'il vous plaît step-up.
Spencer Carter

Le vocabulaire pour comprendre l'intelligence artificielle

L'Intelligence artificielle est une science qui fait appel à une terminologie propre ou empruntée à d'autres sciences ou disciplines. Voici la définition des termes et expressions principales utilisées dans l'IA.
    Agent. Unité (ou entité) autonome capable de représentation, d'action et de communication. Dans le domaine de l'intelligence artificielle, l'agent est un robot ou un programme informatique doté de la capacité de percevoir son environnement, généralement via des capteurs, et d'agir en retour en fonction de cette perception et de règles. Il existe plusieurs types d'agents agissants dans des environnements définis. Un agent conversationnel repose sur des algorithmes de traitement du langage, c'est son domaine. Les systèmes multi-agents sont constitués de plusieurs agents agissant de concert dans un domaine donné (voir Intelligence Artificielle distribuée).
     Agent conversationnel ou chatbot. Interface homme-machine qui gère l'interaction entre des humains et un agent via un dialogue. Les chatbots reposent sur des échanges en langage naturel. Le système interprète les formulations de l'utilisateur et y apporte des réponses, elles aussi en langage naturel. La technologie des agents conversationnels repose sur la branche du traitement du langage. 
    Algorithme adaptatif. Algorithme capable de modifier ses réponses ou les données traitées en fonction de l'évolution de son environnement. Par opposition à un algorithme déterministe, un algorithme adaptatif est dit non-déterministe ou probabiliste. Deux exécutions du même algorithme adaptatif peuvent donner des choix différents. 
    Analyse prédictive. Ensemble des technologies d'analyse de données et de statistique, destinées à produire des prédictions, ou hypothèses prédictives, et/ou des modèles statistiques sur des événements susceptibles de se produire. L'Analyse prédictive est de plus en plus utilisée dans les entreprises, par exemple en marketing pour prédire le comportement des consommateurs. 
    Apprentissage automatique (ou machine learning). Branche de l'intelligence artificielle axée sur des processus d'apprentissage permettant à une machine d'évoluer, sans que ses algorithmes ne soient modifiés. Il existe plusieurs types de machine learning : statistique, supervisé (c'est-à-dire dont les règles d'apprentissage sont définies à partir d'une base d'exemples), non-supervisé. 
    Apprentissage profond (deep learning). Méthode de machine learning faisant partie du champ de recherche "Apprentissage Automatique" de l'intelligence artificielle. Le deep learning permet un apprentissage non supervisé. Il s'appuie sur l'analyse d'un modèle de données. Il est notamment adapté à la reconnaissance d'image ou au traitement du langage naturel. 
    Arbre de décision. Représentation graphique, sous forme d'arbre ou d'arborescence, des règles entrant dans le processus de prise de décision. L'arbre de décision est composé de nœuds de décision et de branches. Utilisé dans le machine learning, il permet de calculer différents résultats en fonction de décision prise, et de faire des prédictions en se basant sur des calculs de probabilités. 
    Base de connaissance. Ensemble des informations relatives à un sujet donné. Une base de connaissance comporte l'ensemble du savoir que l'expert d'un domaine doit maîtriser pour pouvoir exercer son expertise. Ce type de brique est notamment utilisé dans les systèmes experts. 
    Bayésien. Se dit d'un calcul de probabilité qui repose sur le théorème du mathématicien britannique Thomas Bayes. En intelligence artificielle, l'inférence bayésienne est un raisonnement permettant de déduire la probabilité de survenance ou non d'un événement. 
    Heuristique. Fait référence aux méthodes de résolution de problème s'appuyant sur de précédents résultats. L'heuristique n'e s'appuie pas sur une modélisation formelle et ne garantit pas nécessairement des réponses efficaces. D'après les informaticiens Newell, Shaw et Simon, il s'agit d'"un processus qui peut résoudre un problème donné, mais n'offre aucune garantie d'y parvenir". En clair, le système doit choisir entre plusieurs possibilités sans aucune certitude que son choix soit le bon.
    Inférence ou raisonnement. Opération de déduction à partir d'informations implicites. Comme la logique, elle est à la base de tout raisonnement. L'inférence permet de créer des liens entre les informations afin d'en tirer une assertion, une conclusion ou une hypothèse. Elle fait appel à un ensemble de règles se basant sur un système de références.
    Intelligence Artificielle. Plusieurs définitions peuvent être applicables à l'IA. Elle est définie par l'un de ses créateurs, Marvin Lee Minsky, comme "la construction de programmes informatiques qui s'adonnent à des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement critique". Par extension, l'IA est une discipline scientifique recouvrant les méthodes et l'ingénierie de fabrication de machines et programmes dits intelligents. L'objectif de l'IA est de produire des machines autonomes capables d'accomplir des tâches complexes en utilisant des processus réflectifs semblables à ceux des humains. 
    Intelligence Artificielle Distribuée (IAD). Branche de l'intelligence artificielle dont le but est de créer des systèmes décentralisés, généralement multi-agents, capables de coopérer et de se coordonner. L'intelligence artificielle distribuée étudie les techniques permettant à des agents autonomes d'interagir, et les moyens de répartir un problème entre ces agents. Ces techniques sont inspirées des structures complexes de certaines sociétés d'insectes comme les fourmis. Un des domaines d'application de l'IAD est la coordination d'agents autonomes mobiles (comme les avions ou les voitures) - qui doivent apprendre à s'éviter tout en ayant des contraintes de trajet et de temps.
    Intelligence artificielle faible. Fait référence au fonctionnement d'un système qui simule un comportement intelligent dans un domaine restreint.
    Intelligence artificielle forte. C'est l'aptitude d'une machine capable non seulement de reproduire les capacités de réflexion et d'interaction intelligentes (analyse, raisonnement, action rationnelle), mais aussi d'avoir une "conscience", des "sentiments" et la compréhension de ses propres raisonnements. Sujet de polémique, l'IA forte suppose, selon ses détracteurs, que la machine "pense" savoir ce qu'elle "ressent" et connaisse ce qu'elle ressent. En somme qu'elle soit douée de conscience, ce qui est, disent-ils, inaccessible à un système, quelle que soit sa complexité. Certains définissent l'IA forte par la capacité de résoudre des problèmes complexes dans n'importe quel environnement avec un niveau égal ou supérieur à l'intelligence humaine. 
    Langage naturel. Langage utilisé par les humains par opposition au langage formel ou langage machine. Le langage naturel est le support de la communication verbale ou écrite chez les humains. 
    Logique. C'est la science du raisonnement et de l'application ou de l'expression du raisonnement. Avec la représentation et le raisonnement, ou inférence, la logique constitue le troisième facteur du triptyque de la capacité de déduction d'un système. Il existe plusieurs types de logiques, la logique propositionnelle, la logique de premier ordre, etc.
    Logique floue. Raisonnement incluant toutes les possibilités intermédiaires entre les valeurs vrai ou faux. La logique conventionnelle des systèmes informatiques déterministes, c'est-à-dire qui ne relèvent pas du domaine de l'IA, repose sur les valeurs vrai ou faux, équivalentes au oui ou non des humains. Capables de prendre en charge la logique floue, les humains, et l'IA, intègrent, en plus, un certain nombre de nuances entre ces valeurs, comme par exemple les valeurs souvent ou rarement qui peuvent s'intercaler entre les valeurs toujours et jamais. 
    Modélisation. Consiste à élaborer des modèles à partir d'informations afin de simuler des systèmes complexes. Ceux-ci peuvent renvoyer à des situations ou des objets. Le but de la modélisation en IA est d'informer le système qui l'utilise sur la situation et le fonctionnement de l'objet modélisé.
    Ordonnancement et planification. Ensemble des capacités d'un système à contrôler un autre système et à réagir en temps réel. L'ordonnancement et la planification reposent sur les capacités du système de contrôle à évaluer une situation ou un événement, à prendre des décisions et à planifier des tâches. Un système d'ordonnancement et de planification a par exemple pu contrôler, sans intervention humaine, une navette spatiale pendant 24 heures. 
    Perception. Capacité d'un système à recevoir des stimuli liés à un objet ou un événement présent dans son environnement. Ces stimuli, ou informations, sont perçus par un appareillage constitué de capteurs. L'analyse des données issues de ces stimuli permet au système de caractériser l'objet ou l'environnement en question. Cette notion est utilisée dans la reconnaissance faciale par exemple. 
    Probabilités. Branche des mathématiques qui étudie les phénomènes soumis au hasard et à l'incertitude. Dans le domaine de l'intelligence artificiel, son but est de créer des systèmes de raisonnement probabiliste, par opposition aux systèmes déterministes. 
    Règles. Format de représentation des connaissances exploitable par un ordinateur dans une base de connaissances. Utilisées dans les systèmes experts, les règles sont représentées sous la forme du couple si (prémisses) alors (conclusion). 
    Représentation des connaissances. Branche de l'intelligence artificielle qui traite des modèles de représentation de l'information, ou des connaissances, dans le but de former des hypothèses et de produire des inférences. Les connaissances sont classées par typologies : toujours vraies (un carré est un polygone qui possède quatre côtés), incertaines/certaines, évolutives… 
    Réseaux Bayésiens. Représentation, ou langage, graphique probabiliste exprimant la certitude ou l'incertitude d'une inférence. Les réseaux Bayésiens reposent sur la formule du mathématicien britannique Thomas Bayes reliant les probabilités via des nœuds. Les nœuds contiennent le nom d'une variable et une table de probabilités ou de propositions associées à cette variable en fonction de valeurs parentes. 
    Réseaux neuronaux. Les réseaux neuronaux renvoient à un programme composé d'algorithmes reliés à la manière du cerveau humain. Les réseaux neuronaux imitent ainsi le fonctionnement du cerveau humain : chaque fonction du programme est reliée aux autres, l'information est répartie sur l'ensemble du réseau. 
    Robotique. Branche de l'IA portant sur la conception et la fabrication de robots. Ces machines peuvent être des humanoïdes, ou des automates comme dans l'industrie par exemple. La robotique s'appuie sur les autres disciplines de l'IA et sur l'ingénierie mécanique, électrique, hydraulique, entre autres, pour construire des robots. 
    Science Cognitive. Domaine pluridisciplinaire de recherche sur les mécanismes et le fonctionnement des processus mentaux. La science cognitive cherche à décrire les mécanismes de la pensée, de la conscience et de l'intelligence humaine, en vue notamment de les reproduire dans des systèmes informatiques. Cette science regroupe plusieurs disciplines telles que la psychologie, la linguistique, les neurosciences ou encore l'informatique. 
    Système expert. Système permettant de résoudre des problèmes en s'appuyant sur un ensemble de règles préalablement enregistrées dans une base de connaissances et relatives à un domaine restreint. Il se situe dans l'IAF (ou Intelligence artificielle faible). À la manière d'un expert du domaine traité, le système applique des règles, il est dit déterministe. Lorsque le système ne dispose pas de règles concernant le cas à traiter, il est inopérant. Les systèmes experts ont fait leurs preuves dans des domaines très ciblés où les bases de connaissance suffisent à traiter tous les cas possibles. Un système expert est généralement composé d'une base de connaissance, d'un moteur d'inférence et d'une base de règles.
    Test de Turing. Inventé par le mathématicien britannique Alan Turin en 1950, il est destiné à évaluer l'intelligence d'une machine ou d'un système. Concrètement, il cherche à éprouver sa capacité à travers une conversation en langage naturel, à se faire passer pour un humain. Le test se déroule entre un opérateur humain, un autre humain et une machine, par l'intermédiaire de terminaux et de manière anonyme. L'opérateur doit, à travers des échanges textuels, deviner lequel de ces interlocuteurs est la machine.
( source : JDN )