lundi 23 octobre 2017

Qu'est ce que le plasma

Il existe trois principaux états que l’on peut retrouver en physique concernant la matière : l’état solide, liquide, et gazeux. Il en existe un quatrième qui se prénomme l’état plasma. Celui-ci consiste à accélérer la circulation des électrons qui résulte de l’application d’une forte tension électrique.


( source : affichagenumerique.e-monsite )

samedi 21 octobre 2017

radar TTW

Extrait

Le radar de détection de personnes (« Through The Wall Radar ») ou « radar TTW » est apparu il y a environ 15 ans aux Etats-Unis. Ce type de dispositif a pour but la localisation de personnes, considérées comme des cibles mobiles dans un bâtiment, avec le capteur situé à l’extérieur. Le radar TTW le plus connu est le « Radar Vision », qui est destiné en premier lieu à l’équipement de l’armée américaine.

( source : agence-nationale-recherche )

Qu'est-ce que l'électroperméabilisation ?

Extrait

Lorsqu’une cellule vivante est exposée à des impulsions électriques courtes et intenses, cela induit des changements de la différence de potentiel de la membrane plasmique et conduit à une destabilisation transitoire de la membrane plasmique et à l’ouverture des pores de la cellule (Teissié et al, 2005). Ce phénomène permet l’entrée de molécules non perméantes dans la cellule, c'est-à-dire qui ne peuvent pas diffuser à travers la membrane cellulaire. Il s’agit de l’électroperméabilisation, ou plus communément de « l’électroporation ».

( source : betatech )



                                                             ( source : Cooling )


( source : openi.nlm.nih )

samedi 30 septembre 2017

NBIC

La convergence des technologies pour améliorer la performance humaine est un rapport de 2002 commandé par la US National Science Foundation et le Département du commerce. Le rapport contient des descriptions et des commentaires sur l'état de la science et de la technologie des domaines combinés de la nanotechnologie , de la biotechnologie , des technologies de l'information et des sciences cognitives (NBIC) par les principaux contributeurs dans ces domaines.


( source : Wikipédia )

L'invasion des nanotechnologies

Avec ses airs de science-fiction, la recherche sur les technologies de l'infiniment petit est pourtant une réalité d'autant plus inquiétante qu'elle est méconnue.

Années 2000, dans les pays industrialisés : des investissements financiers sans précédent se font en faveur de la recherche et du développement des nanotechnologies. L'initiative française "Nano Innov", mise en place en 2008 sous les auspices du Commissariat a l'énergie atomique (CEA), prévoit le développement de trois "pôles d'excellence " 1 : à la clé, 1,15 milliard d'euros d'investissements publics sur cinq ans ou le financement de la recherche (publique) est entièrement subordonnée au partenariat public-privé et au développement d'applications commercialisables, brevetables, et donc, rentables.

Le marché des nanotechnologies, estimé en 2010 à plus de 150 milliards de dollars devrait atteindre, en 2014, plus de 2 600 milliards, soit 15% de la production manufacturière mondiale (estimation Lux Research). La nanotechnologie travaille sur les dimensions de la matière inférieures à 100 nanomètres (1 nm=10-9 m, un milliardième de mètre). À cette échelle, on entre dans la physique quantique. Les matériaux et les éléments (graphite, argent, or, silice) acquièrent des propriétés nouvelles et radicalement différentes : ce qui était rouge devient vert, un métal devient translucide, un matériau non conducteur laisse passer l'électricité... Deux méthodes sont employées pour obtenir les nanomatériaux. La technique descendante : par procédés mécaniques, en réduisant la matière poudre à l'état nanoparticulaire par broyage à haute énergie. Ou la "technique ascendante" : les atomes sont assemblés, sous contrôle informatique, à l'image de briques, conférant formes et tailles souhaitées (tubes, fullerène 2...), afin d'obtenir la configuration recherchée. Ces remaniements au niveau atomique et moléculaire ouvrent aussi la voie à des assemblages hybrides, entre matière inerte et vivante. La conception de nouveaux matériaux multiplie l'éventail des matériaux, des applications et des profits.

Dangers inconnus

Depuis plus de 15 ans, les nanomatériaux sont massivement présents et s'imposent aux consommateurs sans qu'ils en soient informés car aucun étiquetage ni aucune réglementation n'encadre cette invasion : des articles de sports plus légers aux peintures et métaux de surface autonettoyants sous la seule action de la pluie, en passant par les diodes électroluminescentes pour écrans, les téléphones cellulaires ou les pneus longue durée ! L'alimentation n'y échappe pas. Les additifs alimentaires comme le nanosilice sont employés depuis les années 1990 comme anti-agglomérant. Les barres Mars sont enveloppées dans du papier contenant du nano dioxyde de titane de 1 à 5 nm. Autorisé dans sa forme non nano pour l'alimentaire (pour blanchir le glaçage des pâtisseries), son emploi est ici différent : transparent, il sert à empêcher l'oxygène de gagner l'aliment. La liste des nanoproduits est inconnue et impossible à établir, en l'absence d'obligation pour les producteurs, industriels ou revendeurs d'en déclarer la présence.

Alors que le développement des nanos est soutenu massivement par les deniers publics, à peine 0,5 % de ces fonds sont consacrés à l'évaluation des risques sanitaires et environnementaux. Cette carence d'évaluation et d'information est fondamentale pour comprendre ce qui se joue avec les nanotechnologies : tout se passe comme si aucun enseignement n'avait été tiré des désastres provoqués par de nombreuses substances chimiques disséminées au cours du siècle précédent. Tandis que le règlement Reach oblige enfin les producteurs à une évaluation des substances chimiques produites à plus de 10 tonnes par an, la règle appelée "No data, no market" 3 semble ne pas concerner les nanosubstances aux propriétés radicalement nouvelles. Autorités gouvernementales et agences sanitaires et de régulations en appellent à la nécessité d'évaluation et de réglementation depuis dix ans, tandis que le corpus des études scientifiques pointant la toxicité des nanoparticules ne cesse de s'allonger.

Propriétés inédites

Elles présentent en effet des caractéristiques inédites : une puissante réactivité chimique et une pénétration exceptionnelle, leur taille leur autorisant le franchissement de toutes les “barrières". Les études mettent en évidence les dommages sur l'ADN causés par les nanoparticules, un stress oxydatif (mort des cellules) et des effets inflammatoires. Une génotoxicité indirecte, atteignant l'ADN à travers des barrières intactes, à été mise en évidence. De façon générale, les nanoparticules se caractérisent par leur extrême mobilité dans l'environnement et dans les organismes. Quelle que soit la voie d'exposition (inhalation, ingestion, cutané), « elles peuvent être internalisées par les cellules, migrer vers le cytoplasme et le noyau et passer les barrières que l'on croyait les plus étanches du corps humain. Y compris la barrière placentaire », expliquait Patrick Brochard, toxicologue au Laboratoire santé-travail-environnement de Bordeaux II, devant l'Office parlementaires des choix scientifiques et technologiques (OPCST)4. « Les nanoparticules très fines et très allongées sous forme de fibres (comme les nanotubes de carbone) ne sont pas gérées par les cellules, et malgré tous les mécanismes de défense de l'organisme, la particule va persister, intacte, dans les tissus, à l'endroit où elle s'est déposée, ou bien elle va migrer... Cet ensemble d'effets peut entraîner des réactions sur des modèles in vitro : perte de fonction, hyperactivité cellulaire. Au-delà, une réaction inflammatoire au niveau des tissus est susceptible de déboucher sur des pathologies non spécifiques comme fibrose et le cancer », conclut le toxicologue. 

Une persistance indéfinissable

De plus, aucune analyse du cycle de vie de ces nanomatériaux n'a été réalisée. Leur devenir dans l'environnement pose déjà question. Le nano-argent, abondamment utilisé comme antibactérien, risque, une fois libéré dans l'environnement, de rompre l'équilibre écologique en anéantissant les bactéries. Des nanopréparations de pesticides sont déjà sur le marché (BASF Syngenta, Bayer), avec l'avantage de mieux se dissoudre dans l'eau et d'être efficaces plus longtemps avec un dosage réduit. La plupart des nanoparticules sont déjà reconnues comme persistantes, toxiques, bioaccumulables, et capables de se mouvoir sans fin... Elles rempliraient ipso facto les critères pour entrer sur la liste de la convention de Stockholm sur les polluants organiques persistants. Pire, leur haute réactivité chimique leur permet de se lier aux polluants déjà en circulation (PCB, PFOS), leur conférant potentiellement une durée de vie encore plus longue. En dépit de cela, rien ne semble en mesure d'entraver leur développement. D'ailleurs, une partie non négligeable des financements publics alloués au plan Nano Innov est attribuée à « l'acceptabilité sociale ». Ce qui signifie présenter au public une myriade d'applications tenues pour réalisables et ne parler que des "bénéfices" : médicaux, environnementaux et, bien sûr, économiques.

Vers un contrôle total ?

Les nanotechnologies forment une révolution d'ensemble dont nanomatériaux et nanoparticules ne sont que les instruments. In fine, il s'agit de l'élaboration d'un véritable système, défini sous le terme de convergence et appelé "NBIC" : Nano, Bio, Info, Cogno 5. Soit la convergence de plusieurs technologies, biologie, sciences cognitives (neurosciences), informatique, robotique dont la nanotechnologie est l'élément habilitant. La biologie synthétique crée de nouveau systèmes vivants (autoréplicants) programmés pour exécuter des tâches précises : bactérie E. Coli surpuissante pour la dépollution, polymères nanobiologiques intégrant des protéines permettant aux objets de se reconstituer...

Au-delà de l'alliance de la biologie, du vivant et de la nanotechnologie, se profilent les risques d'une humanité et d'une société entièrement sous contrôle, jusque dans ses comportements. Devant l`OPCST, François Berger, membre du réseau européen de nanobiotechnologie, Nano2life et chef de l'équipe de "Nanoneurosciences fondamentales et appliquées" au sein du pôle Minatec, donne un exemple des applications en cours avec un enthousiasme qui a de quoi inquiéter: « On peut manipuler le comportement alimentaire d'un singe en stimulant son hypothalamus (...). Il y a un réel danger dans les domaines de l'obésité ou de l'anorexie. Avouons que des outils implantés qui traiteront la maladie avant qu'elle n'apparaisse peuvent aussi être un avantage, même si cela a un côté impressionnant. (...) La valeur ajoutée des nanotechnologies transférées dans le domaine médical est indiscutable au niveau scientifique et industriel ».

Le ministère de la Recherche n'a pu que confirmer l'existence de « technologies permettant de modifier le comportement humain », parmi lesquelles « l'inhalation de nanoparticules psychotropes». Bien sûr, la majeure partie des financements publics est allouée aux recherches pour la Défense et l'armement et la "sécurisation de la société", via les nouveaux instruments de contrôle (identification, RFID, puçages, traçabilité) permis par cette convergence. Les risques d'une espèce humaine sous contrôle (dont les outils sont aux mains d'une poignée de multinationales) sont trop importants pour ne pas questionner les fins poursuivies au moyen de la nanoscience.

Anne-Corinne Zimmer, journaliste


5. Le projet américain NBIC porté depuis 2001 par la National Science Foundation a été exposé dans le rapport de W. Bainbridge et Roco « Converging technologies for improving human performances ». L'ETC Group a choisi de parler de BANG pour Bit (information) Atome, Nano, Gêne.

( source : metapoinfos.hautetfort )

A quels risques nous expose la technique ?

Extrait




                                                                                              Rédigé par Serge Naud

( source : utlcreon )

samedi 23 septembre 2017

5. Conférence Chemtrails au Parlement Européen Josefina Fraile 8 et 9 A...

Géo-ingénierie

La géo-ingénierie est l'ensemble des techniques qui visent à manipuler et modifier le climat et l'environnement de la Terre en première intention et à grande échelle. L'objectif est généralement correctif, plus que préventif (le préventif relevant plutôt des écotechnologies et de l'écoconception). Elle ne doit pas être confondue avec la géo-ingénierie du sous-sol (mines).

Législation

  . Depuis 1978 une Convention internationale (convention ENMOD) interdit d'utiliser des techniques de modification de l'environnement à des fins militaires (ou toutes autres fins hostiles). 74 pays sont signataires de cette convention ;

  . En 1972, dans le cadre du Protocole de Londres de 1996, les États membres de l'Organisation maritime internationale(OMI) ont voté une interdiction de fertilisation des océans dans les eaux internationales, avec une exception pour des « recherches scientifiques « légitimes » et de « petite échelle » » ;

  . En 1992 les objectifs de la Convention Cadre des Nations-Unies sur le changement climatique (CCNUCC) mentionnent dans son article 2 qu'elle vise à prévenir toute interférence anthropique dangereuse avec le climat. Lin (2009) juge que ceci inclut la géo-ingénierie, mais d'autres auteurs comme Bodansky en 2011 estiment que cette convention est juridiquement trop faible pour réellement s'imposer au politique ;

  . en 1992, au Sommet de la Terre de Rio, la Convention sur la diversité biologique demande aussi aux États de protéger la biodiversité. En 2010, la conférence des parties adopte un texte interdisant le déploiement de techniques d'ingénierie climatique , mais ce texte est un engagement non-contraignant et il tolère des expériences que les besoins de la recherche justifieraient ;

 . le 22 mars 1985 est lancé le protocole de Montréal relatif à des substances qui appauvrissent la couche d'ozone ; il rend théoriquement impossible (pour les 196 pays signataires) l'injection d'aérosols stratosphériques et de toute autre substance susceptible d'appauvrir la couche d'ozone.

( source : Wikipédia )

jeudi 21 septembre 2017

Smart Dust, la poussière intelligente (MZn°135)

Poussière intelligente

La poussière intelligente ("smartdust" en Anglais) est un réseau sans fil de minuscules systèmes microélectromécaniques(microelectromechanical systems en anglais, abrégés MEMS) de capteurs, de robots ou de dispositifs, qui permet de mesurer par exemple la lumière, la température ou des vibrations.

De tels systèmes peuvent théoriquement être mis en communication avec un serveur ou des systèmes d'analyse via un réseau informatique sans fil.

Cette poussière intelligente peut être dispersée dans un environnement donné (air, eau...) pour y effectuer certaines tâches simples, et renvoyer des informations (par radiofréquence).

( source : Wikipédia )


( source : lesechos )

Filamentation laser femtoseconde IR : Interaction de deux filaments et Source de rayonnement secondaire longue distance

Extrait



Les lasers femtoseconde amplifiés permettent grâce à leur très grande puissance d’étudier de nouveaux phénomènes physiques tels que la filamentation laser, le faisceau laser se propagent alors sur de grandes distances tout en maintenant une intensité crête élevée.

Un filament laser résulte d’une compétition dynamique entre l’effet Kerr (qui focalise le faisceau) et la défocalisation due au plasma généré par l’impulsion laser. Dans ce travail de thèse la filamentation d’un faisceau laser femtoseconde IR a été étudiée aussi bien en terme de processus non-linéaire, que du point de vue d’une source de rayonnements secondaires à grande distance. Lors d’une propagation sur très grande distance (kilomètre) la formation de plusieurs filaments est inévitable. L’interaction entre deux filaments a donc été étudiée méthodiquement dans un premier temps, ainsi que l’effet de cette interaction sur les rayonnements secondaires générés par filamentation.

Puis la génération de continuum de lumière blanche et d’émission conique par filamentation laser et la possibilité de générer un continuum de lumière blanche à grande distance ont été étudiées.

La génération efficace de troisième harmonique par interaction de deux filaments est démontrée et réinterprétée. L’effet de lentille moléculaire permettant de contrôler la distance entre deux filaments se propageant colinéairement a été démontré efficace pour contrôler à distance le rayonnement THz émis par bifilamentation laser.

Un grand nombre d’applications à la filamentation laser ont été proposées et/ou démontrées pour des domaines divers tels que la télédétection de la pollution atmosphérique , l’identification de cibles à distance , la génération de rayonnement TéraHertz (THz) à distance ou le guidage de décharges électriques et même de la foudre.

( sources : https://tel.archives-ouvertes )

Filamentation optique d’une impulsion laser femtoseconde dans l’air

Extrait

Principe de la filamentation laser 

D’ores et déjà, les lasers dit femtosecondes sont commercialisés et couramment utilisés en laboratoire et dans l’industrie. Ce type de laser émet des impulsions ayant une durée de l’ordre de quelques dizaines de femtosecondes, à une cadence qui peut aller de quelques Hz à plusieurs MHz.

 Chaque impulsion contient une énergie qui peut facilement atteindre 10 mJ voire quelques joules dans les installations les plus importantes. La puissance crête d’une impulsion étant donnée par la relation P ∼ WL/dt, oû WL est l’énergie de l’impulsion et dt sa durée, une impulsion de 100 fs avec un Joule d´énergie correspond donc à une puissance instantanée de dix térawatts. Or, le térawatt est comparable à la puissance électrique moyenne consommée sur la planète à chaque instant. On conçoit que la propagation d’une telle impulsion dans l’atmosphère n’obéit plus aux lois de l’optique classique, car les propriétés optiques de l’air sont modifiées en présence du champ électromagnétique intense

Le premier effet qui va intervenir est l’effet Kerr optique, représenté schématiquement sur la Figure 2.1. L’indice de réfraction de l’air est augmenté en présence d’un champ électromagnétique, selon la relation n = n0 + n2IL(r, t). Cet effet est bien connu depuis l’avènement des lasers dans les années 60, car il apparaît facilement dans les milieux denses où l’indice non linéaire n2I est grand, même pour des puissances laser de quelques Mégawatts . Il est notamment responsable de la cassure des matériaux amplificateurs dans les chaînes laser à haute puissance. 

En revanche, dans un gaz tel que l’air où l’indice est très voisin de celui du vide, la modification de l’indice est beaucoup moins importante, mais cumulés sur de longues distances, elle aboutit néanmoins à des effets spectaculaires. Pour bien comprendre cet effet cumulatif, considérons une tranche temporelle de l’impulsion au voisinage de son sommet et intéressons-nous à la répartition spatiale de l’intensité. Celle-ci (hormis cas exceptionnel) est maximale au centre du faisceau. L’effet Kerr optique réalise pour cette tranche temporelle l´équivalent d’une lentille, car le faisceau voit un indice plus important au centre de la pupille que sur les bords o`u l’intensité laser est faible.

 L’effet Kerr optique fera (11 2. Filamentation optique dans l’air) donc converger un faisceau initialement collimaté. Mais cet effet est cumulatif. En effet, au cours de la progression de l’impulsion dans l’air, l’intensité sur l’axe augmente à cause de l’effet précédemment décrit, ce qui augmente à son tour la variation de l’indice et donc l’effet de convergence.






On a l’équivalent d’une série de lentilles de plus en plus convergentes. Fig. 2.1 - Schéma de l’effondrement d’un faisceau laser femtoseconde de profil gaussien par effet Kerr contrebalancé par l’ionisation de l’air. Au-dessus d’une certaine puissance initiale appelée puissance critique Pcr, l’effet Kerr pourra même se poursuivre au-delà de la limite imposée par la diffraction. 

Cette puissance critique a pour expression dans le cas d’un faisceau de profils gaussiens : Pcr = 3, 77λ 2 0 8πn0n2 = 3, 2 GW où n0 est l’indice linéaire de l’air, λ0 = 800 nm est la longueur d’onde du laser et n2 = 3, 2.10−19 cm2 .W−1 est l’indice non linéaire de l’air responsable de l’effet Kerr. On a donc affaire à un effet catastrophique et l’on s’attend à un effondrement du faisceau, car même la diffraction naturelle serait incapable d’arrêter le processus. Cependant, avant d’atteindre cette limite où le diamètre du faisceau devient inférieur à la longueur d’onde, l’intensité devient tellement importante que d’autres effets, fortement improbables à plus faible intensité, entrent en jeu. L’effet principal est l’ionisation multi-photonique. 

Le champ électrique associé à l’impulsion laser devient suffisamment important pour arracher des électrons périphériques aux molécules d’oxygènes et d’azotes contenues dans l’atmosphère. Un plasma se forme alors rendant l’air électriquement conducteur.

( source : https://hal.inria )

lundi 11 septembre 2017

Miniaturisation et intégration d'antennes imprimées pour systèmes communicants ULB pulsés





Extrait de la thèse de A. Chami

Thèse dirigée par Georges KOSSIAVAS
25 Novembre 2011




                                                                          Préambule

lundi 21 août 2017

samedi 19 août 2017

L’électroporation

L’électroporation est le nom donné au phénomène lors duquel la perméabilité de la membrane cellulaire augmente sous l’effet de courtes impulsions électriques (de l’ordre de la microseconde, ou de la milliseconde). [1] rappelle que l’électroporation a lieu lorsque le potentiel transmembranaire atteint un certain seuil. La valeur de ce seuil dépend des caractéristiques des impulsions appliquées et de la manière dont on le mesure, mais reste de l’ordre de 200 mV à 1V. De plus, la perméabilisation de la membrane peut être temporaire (on parle alors d’électroporation réversible), ou permanente (électroporation irréversible). Au-delà d’un certain voltage, la cellule ou le tissu subit des dommages thermiques.




( source : mdeville.perso.math.cnrs )

lundi 14 août 2017

Satellite d'observation de la Terre

Un satellite d'observation de la Terre est un satellite artificiel utilisé pour effectuer des observations géophysique et géographique de la Terre depuis l'orbite terrestre . Cette catégorie de satellite est utilisée à des fins telles que la météorologie, l'inventaire des ressources naturelles, la géodésie, l'étude et la modélisation du climat, la prévention et le suivi des catastrophes naturelles, la reconnaissance militaire... Les satellites d'observation de la Terre ont des caractéristiques très variables pour répondre à ces différents besoins : ils se distinguent notamment par leur résolution plus ou moins élevée, les instruments qu'ils embarquent (instrument optique, radar, instrument multi-spectral...), leur orbite et la taille. Ils peuvent être mis en œuvre pour répondre à des besoins scientifiques (modélisation climatique, structure de la Terre...) ou recueillir des données pour des usages opérationnels civils ou militaires. Ces satellites initialement mis en œuvre par des agences gouvernementales, font depuis peu l'objet d'une exploitation commerciale.

La majorité des satellites d'observation de la Terre font partie de la catégorie des satellites de télédétection dont les instruments analysent les ondes électromagnétiques (lumière visible mais aussi ultraviolet, infrarouge, rayons X...) émises par l'objet observé (au besoin le satellite émet un train d'ondes et analyse les ondes retournées : radar...). Typiquement les instruments utilisés sont des caméras, spectromètre, radar, radiomètre... SPOT ou METEOSAT rentrent dans cette catégorie.

D'un point de vue technique, cette catégorie de satellites regroupe à la fois des satellites civils et militaires. Lorsque le terme est utilisé pour identifier l'usage, le terme désigne généralement uniquement les satellites utilisés à des fins civiles.

( source : Wikipédia )

Schéma du satellite Jason-2







( source : Wikipédia )

samedi 5 août 2017

Le système haptique côté perception : la somesthésie

La somesthésie est liée à l’ensemble des sensibilités cutanées et internes. Elle est composé par :

      . le sens tactile: il est relayé par les récepteurs sensoriels situés sous l’épiderme, et dont on relève la plus grande densité dans la main. Ces récepteurs relaient « le contact initial avec l’environnement », et permettent d’en appréhender la géométrie détaillée de la surface, la rugosité, la température (toujours de surface).

     . le sens kinesthésique: du grec kinêsin signifiant « se mouvoir » et aisthêsis signifiant sensation , il se réfère à la kinesthésie, la sensation interne du mouvement des parties du corps assurée par le sens musculaire (sensibilité profonde des muscles) et par les excitations de l’oreille interne [Le Petit Robert]. Ce sens permet de connaître l’effort que font nos muscles par exemple lorsque nous soulevons (poids) ou lorsque nous poussons (résistance) un objet.


La perception tactile

Les récepteurs physiologiques de la perception tactile se trouvent dans la peau (figure 1.1). La bande passante du sens tactile (c’est à dire la fréquence à laquelle les stimuli tactiles sont perçus) et de 0 à 400 Hz (Shimoga, 1992). Elle peut cependant monter à des très hautes fréquences situées entre 5000 à 10000 Hz dans le cas de la reconnaissance de textures à très petits détails.



Nous pouvons distinguer 3 natures de récepteurs tactiles :

     . les thermorécepteurs : liés aux sensations de chaud et de froid;
   . les nocirécepteurs : liés à la sensation de douleur;
     . les mécanorécepteurs : liés à la discrimination tactile.

On distingue 4 types de mécanorécepteurs (Cholewiak et Collins, 1991), (Kalawsky, 1993), (Seow, 1995); Il sont présentés dans le tableau 1.2.



Tous ces récepteurs sont donc situés dans la peau, mais dans des concentrations différentes selon les endroits du corps.

La perception kinesthésique

Le sens kinesthésique intègre les informations sur les positions, les mouvements et les forces appliqués sur ou par le corps. Il est relayé par des récepteurs situés dans les tendons musculaires au niveau des articulations, ainsi que dans l’oreille interne. La bande passante de ces récepteurs est plus basse que ceux de la perception tactile soit de 20 à 30 Hz.

( source : tornil.me )

Spectroscopie de résonance acoustique

La spectroscopie par résonance acoustique (ARS) a été développée en 1989 par Dipen Sinha du Laboratoire national de Los Alamos. Il avait combiné un vieil analyseur de balayage de fréquence avec deux capteurs piézoélectriques. Un capteur était utilisé comme émetteur et l’autre comme récepteur. Lorsque l’émetteur vibrait l’objet examiné, le récepteur enregistrait la vibration de résonance et un spectre de fréquence. La spectroscopie par résonance acoustique est une technique non destructive qui permet de détecter les molécules rapidement.

Technique

La technique consiste à exciter un objet avec un balayage rapide d’onde acoustique pour faire vibrer l’objet en mode normal de vibration. Ce dernier est en fait une oscillation de l’objet à la suite d'une perturbation qui est semblable à l’état stable de l’objet, cette oscillation est alors associée à une fréquence. Le domaine des ondes de cette technique est large, puisqu’il inclut les ultrasons et les infrasons qui ont une fréquence variant de 0 à 10 MHz. Cela permet de produire un spectre de résonance acoustique de l’objet. À l’aide de ce spectre, beaucoup d’informations sur la structure et sur la composition de l’objet peuvent être déterminées.

( source : Wikipédia )

Principe de l’effet photoacoustique


( source : photoniques.com )

Potentiel évoqué

Un potentiel évoqué (PE, dit aussi ERP pour l'anglais Event-Related Potential) désigne la modification du potentiel électrique produite par le système nerveux en réponse à une stimulation externe, notamment sensorielle (un son, une image, etc.) mais aussi à un événement interne, notamment une activité cognitive (attention, préparation motrice, etc.) et enregistré grâce à des techniques comme l'électroencéphalographie (EEG) ou la magnétoencéphalographie (MEG). 

Les potentiels évoqués sont utilisés en neurophysiologie humaine et animale pour comprendre l'organisation fonctionnelle du système nerveux dans la recherche en neurosciences et tester son intégrité dans le cadre d'examens médicaux en neurologie. Ces signaux électriques étant en général très faibles (de l'ordre du micro-Volt), il est souvent nécessaire de répéter l'enregistrement un grand nombre de fois de façon à moyenner toutes ces mesures pour augmenter le rapport signal sur bruit et obtenir une caractérisation fiable du potentiel évoqué. Le potentiel peut alors être décrit par différents paramètres comme son amplitude, sa latence, etc.

( source : Wikipédia )

Photoacoustique

La photoacoustique (ou optoacoustique ) désigne la génération d'ondes mécaniques dans un objet illuminé par une radiation électromagnétique.

Peu de progrès furent faits avant les années 1970 à cause du manque de source de lumière utilisable et ce n'est qu'avec l'essor du laser que l'effet photoacoustique est ressorti de l'ombre. Dès lors les scientifiques perçurent son intérêt, notamment pour la biophysique et même la médecine. En effet les ondes photoacoustiques combinent les avantages de l'optique et de l'acoustique : le contraste en absorption optique, couplé avec la faible atténuation acoustique dans les tissus mous permettent d'envisager une application directe en imagerie médicale.

De plus la gamme de fréquences électromagnétiques pouvant aller du visible aux ondes radiofréquences en passant par les micro-ondes, on peut ainsi relier les contrastes des images à différentes informations moléculaires et fonctionnelles.

Principe physique

Fondamentalement le principe de l'effet photoacoustique est simple : une onde électromagnétique, absorbée dans un objet, voit son énergie convertie en chaleur. Comme la température augmente localement, il s'opère une dilatation thermique des tissus, générant ainsi une onde acoustique dans l'objet.

Cependant une dilatation constante des tissus ne crée pas d'onde mécanique, il faut des cycles de dilatation-compression pour cela. C'est pourquoi la source de lumière doit varier dans le temps. Principalement, deux modes d'émission de l'onde électromagnétique sont utilisés : l'impulsion ou l'onde continue à intensité modulée. Mais le plus souvent on choisit le mode impulsionnel qui donne le meilleur ratio signal sur bruit, en permettant en plus de modéliser la naissance des ondes de matière comme un "Dirac" acoustique tant l'échelle de temps diffère entre optique et ultrasons. Par ailleurs c'est ce mode-là uniquement qui sera décrit par la suite.

Théoriquement l'absorption d'une onde électromagnétique est liée à la composition particulaire de la matière. Celle-ci est composée de particules chargées comme des électrons, des noyaux ou même des ions, et l'onde interagit avec ces charges par diffusion élastique, diffusion Raman, absorption, etc... Lors d'une interaction d'absorption l'énergie absorbée peut être transformée en chaleur, convertie dans une réaction chimique ou en fluorescence.

Parmi toutes ces interactions seule la portion transformée en chaleur participe à l'effet photoacoustique, et dans la plupart des cas, dans les expériences de photoacoustique, c'est cet effet qui domine. La fluorescence devient importante uniquement quand la radiation utilisée a une fréquence dans le violet ou l'ultraviolet, ce qui est peu commun généralement dans les applications que l'on retrouve en biomédecine. 

La capacité à absorber la lumière dépend des conditions environnementales, de la constitution moléculaire de la matière mais également de la polarisation de l'onde électromagnétique et de sa longueur d'onde. Ce dernier point est particulièrement intéressant car il justifie que la photoacoustique soit adaptée pour des manipulations de spectroscopie.

Pour générer l'onde photoacoustique, l'onde électromagnétique utilisée doit avoir une durée d'impulsion suffisamment courte pour que la diffusion thermique puisse être négligée.

La quantité de chaleur générée dans le tissu est généralement proportionnelle à la puissance de la radiation reçue.

( source : Wikipédia )

La photoacoustique est un des moyens utilisés par les nanosciences et nanotechnologies sur de nombreuses personnes, victimes de harcèlement électromagnétique ou de torture . Les nanosciences et nanotechnologies l'utilisent à des fins d'expériences, par exemple, provoquer des potentiels évoqués.

vendredi 4 août 2017

Photolyse

On appelle photolyse toute réaction chimique dans laquelle un composé chimique est décomposé par la lumière. Le processus direct est défini comme l'interaction d'un photon inter-réagissant avec une molécule cible.

La photolyse n'est pas limitée à la lumière visible par définition comprise entre 400 et 800nm. Tout photon avec suffisamment d'énergie peut affecter les liaisons chimiques d'un composé chimique. Comme l'énergie d'un photon est inversement proportionnelle à sa longueur d'onde, les ondes électromagnétiques avec l'énergie de la lumière visible ou plus élevée, telles que l'ultraviolet, les rayons X et les rayons gamma sont habituellement impliquées dans de telles réactions.

( source : Wikipédia )

samedi 29 juillet 2017

Intrication quantique

En mécanique quantique, l'intrication quantique, ou enchevêtrement quantique, est un phénomène dans lequel deux particules (ou groupes de particules) ont des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare. Un tel état est dit « intriqué » ou « enchevêtré » parce qu'il existe des corrélations entre les propriétés physiques observées de ces particules distinctes : cet état semble contredire le principe de localité. Ainsi, deux objets intriqués O1 et O2 ne sont pas indépendants même séparés par une grande distance, et il faut considérer {O1+O2} comme un système unique.


( source : Wikipédia )

lundi 17 juillet 2017

Cause

On entend généralement par cause d’un fait ce qui le produit ou du moins qui participe à sa production. En cas de cause complexe, on nomme facteurs les éléments qui y participent. Donner sa cause revient à rendre un fait intelligible en répondant à la question : « Pourquoi ce fait a-t-il lieu ? ».

Qu'est ce qu'une cause ?

La « cause » en sciences physiques

On peut poser la question de la cause d'un fait physique expérimental, dès lors qu'on peut dire clairement si ce fait a eu lieu ou non. À la question « pourquoi tel fait est-il observé ? » la réponse est toujours un ensemble de conditions initiales du système étudié et de lois physiques. Ces conditions sont-elles nécessaires ? Il est souvent difficile de le savoir car le fait pourrait certainement être produit autrement. Sont–elles suffisantes ? Oui, mais prises ensemble : tout le dispositif expérimental suffit à produire le résultat, ce qui exclut de pouvoir répondre à la question « pourquoi ? » de manière simple. L’explication scientifique se ramène donc à la donnée d’un dispositif expérimental qui suffit à produire le fait observé, sans que ce dispositif soit nécessaire.

Pour affiner la compréhension du phénomène, le physicien va donc dépouiller son dispositif pour le réduire au minimum nécessaire à produire le fait, c'est dans ce minimum qu'il va trouver ce qu'il appellera les causes du phénomènes. On en revient à l'exigence du suffisant et nécessaire qui satisfait la demande d'explication, comme en mathématiques.

Le déterminisme scientifique

La cause en philosophie des sciences : même si, on l’a vu, la causualité en physique est à manier avec précaution, elle tient une place importante en philosophie de la physique. Car si on peut lire des livres entiers de théories physiques sans qu’il n’y soit jamais fait mention de « cause », l’épistémologie est au contraire « obsédée » par la causalité. L’idée fondamentale de toute science véritable est que les faits n’arrivent pas par hasard, que leur production est la conséquence de faits qui l’ont précédés. La science refuse de croire que les faits se produisent sans causes, spontanément.

( source : Wikipédia )

samedi 15 juillet 2017

Argumentation

L’argumentation est l'action de convaincre et pousser ainsi l'autre à agir. Contrairement à la persuasion, elle vise à être comprise de tous et rechigne à utiliser des arguments fallacieux.

Une argumentation est composée d'une conclusion et d'un ou de plusieurs « éléments de preuve », que l'on appelle des prémisses ou des arguments, et qui constituent des raisons d'accepter cette conclusion. On distingue 3 grands groupes :

  . l'art de démontrer (on s'appuie sur des faits, des preuves, une loi incontestable),

  . l'art de persuader (l'émetteur fait appel au sentiment des destinataires (émouvoir, rire ou encore provoquer))

  . l'art de convaincre (l'auteur fait appel à la raison du destinataire, mais sans utiliser de faits scientifiques).

Une argumentation convaincante peut bien souvent consister à simplement énoncer un fait, afin de permettre à l'interlocuteur d'en avoir connaissance. 

Un argument n'est ni une démonstration, ni une preuve :

  . La démonstration est une conclusion logique. Démontrer, c'est établir la vérité d'une phrase abstraite par des moyens strictement logiques.

  . La preuve est une évidence concrète, empirique. Prouver, c'est montrer un objet ou causer un événement.

( source : Wikipédia )

mardi 11 juillet 2017

Signes cliniques trompeurs

La physique quantique a donné les moyens aux nanosciences et nanotechnologies d'avoir des instruments qui génèrent de la filamentation laser femtosecondes dans l'air ( photo ci-dessus , invisible à l'œil nu ).

Selon Grégoire Méchain , "nous avons démontré expérimentalement qu’il était possible de maîtriser le processus de filamentation et la formation de canaux de plasma sur de longues distances."

La longueur d'onde d'émission de la source électromagnétique ( optique quantique ) , qui varie continûment , interagit avec le corps . La forte absorption d'énergie provoque un dysfonctionnement de l'organisme .

Les signes cliniques ne sont donc pas systématiquement la manifestation d'une maladie , ça peut être aussi la manifestation d'un harcèlement électromagnétique pulsé et ciblé .

Un médecin peut donc diagnostiquer faussement un syndrome d'Asperger par exemple .

mercredi 5 juillet 2017

L’instantanéité de l’effet tunnel en mécanique quantique

L’effet tunnel

                                    Illustration de la différence entre mécanique classique et
                                                                mécanique quantique

L’effet tunnel est un des phénomènes les plus étranges en physique quantique, la figure ci-dessus en illustre le concept : en physique classique une balle lancée contre un mur rebondit et n’a aucune chance de franchir le mur si elle ne possède pas la vitesse et donc l’énergie nécessaire. En physique quantique le cas est diffèrent, lorsqu’une particule se retrouve face à une barrière de potentiel alors même si cette particule ne possède pas l’énergie requise pour franchir la barrière, elle a une certaine probabilité de la franchir tout de même.

L’instantanéité de l’effet tunnel, entre mesure et théorie

Ce concept d’effet tunnel implique une autre conséquence : il est instantané, en effet il n y a aucun délai théoriquement entre le passage de la particule d’un côté ou de l’autre de la barrière. Or jusqu’à maintenant les mesures ont toujours mis en évidence une durée non nulle (mais tout de même très très courte de l’ordre de l’attoseconde soit un milliardième de milliardième de seconde).

Or des chercheurs ont récemment trouvé la cause de cette durée (article arXiv ici) : En étudiant le phénomène d’ionisation par effet tunnel d’un atome par un photon (éjection d’un électron de l’atome en le bombardant avec un photon) les chercheurs ont mesuré le temps nécessaire pour l’éjection de l’électron ainsi que l’angle d’éjection et ont pu en conclure que celui-ci était freiné par l’effet du champ électrique de l’atome.

( source : metricofscience )

mardi 4 juillet 2017

La spectroscopie laser

La spectroscopie d'absorption consiste à faire varier continûment la longueur d'onde d'émission d'une source lumineuse qui interagit avec un milieu matériel et à détecter l'intensité transmise.

Le signal ainsi optenu s'appelle un spectre . 

A certaines longueurs d'onde bien précises, la lumière entre en résonance avec le milieu car celui-ci possède une fréquence propre égale à la fréquence excitatrice de la lumière.

Cette lumière sera alors absorbée partiellement ou complètement. En détectant l'intensité lumineuse transmise par le milieu qui module l'absorption, on connaîtra les fréquences caractéristiques du milieu.

( source : Le laser - F.Bretenaker, N.Treps )

mardi 27 juin 2017

Industrie de l'armement

L'industrie de l'armement est la branche du secteur industriel consacrée à la fabrication et au commerce des armes dans les domaines civil et militaire.

Aujourd'hui, les principaux usagers des armes restent les États, qui tout en contrôlant le développement, la production et l'accès, les destinent en premier lieu aux militaires et à la police.
( source Wikipédia )


Derrière le harcèlement électromagnétique et au regard des moyens utilisés , se cache à l'évidence l'industrie de l'armement , qui se sert des victimes comme sujets d'expériences .

intelligence artificielle

Extrait

Nouvelle attaque de scientifiques de renom contre les dangers potentiels de l'intelligence artificielle. Dans une lettre publiée sur le site de l'institut Future of Life, plus de mille chercheurs s'alarment de l'évolution des armes, qui deviennent capables "de sélectionner des cibles et de combattre sans l'intervention de l'humain".

C'est bien la "course à l'armement" en matière d'armes autonomes qui inquiète les chercheurs. "Les armes autonomes ont été décrites comme la troisième révolution dans les techniques liées à la guerre, après la poudre à canon et les armes nucléaires".

Plus de 1000 experts en robotique et en intelligence artificielle ont signé une lettre qui alerte sur le développement de l'intelligence artificielle militaire et les "armes autonomes" capables d'ôter la vie.
( source : lexpress )

Jean-Yves Le Drian, qui s’est exprimé sur ce sujet à l’occasion d’un récent colloque, « l’intelligence artificielle est un élément de notre souveraineté nationale ». D’après les propos qu’il a tenus et qui ont été rapportés par l’Usine Nouvelle et Acteurs Publics, il estime qu’il s’agit même d’une « troisième révolution stratégique, dite troisième offset » après « l’hypervélocité et la lutte sous-marine. » Et c’est d’ailleurs la raison pour laquelle, « nos alliés », et en particulier les États-Unis, l’ont placée « au cœur de la stratégie de sauvegarde de leur défense et de leur souveraineté. »
( source : opex360 )


Il existe des indices graves et concordants sur l'utilisation de l'intelligence artificielle contre de nombreuses personnes victimes du harcèlement électromagnétique .

mardi 20 juin 2017

Manifestation du 17 juin 2017 Place de la République à Paris

L’amitié et le courage ont été les rayons de soleil de cette journée de protestation , dans un esprit d'échange et de dialogue . Un grand merci à l'association ADVHER , à Debout Education Populaire , aux victimes Polonaises de l’association STOPZET , à Pieter Huylenbroek et à toutes les personnes qui ont bien voulu nous écouter et partager leur savoir .

vendredi 16 juin 2017

samedi 10 juin 2017

Principe général de la pince optique

Le principe de la pince optique est de piéger un objet de petite dimension (molécule, cellule...) à l'aide d'un faisceau laser. Un déplacement précis de cet objet est alors permis par simple déplacement du faisceau laser de piégeage . Physiquement le piège de la pince optique repose sur un équilibre entre la force résultant du gradient d'intensité du laser focalisé et la force de pression de radiation exercée par la diffusion de la lumière sur l'objet.

( source : Wikipédia )

jeudi 25 mai 2017

Spectroscopie

La spectroscopie, ou spectrométrie, est l'étude expérimentale du spectre d'un phénomène physique, c'est-à-dire de sa décomposition sur une échelle d'énergie, ou toute autre grandeur se ramenant à une énergie (fréquence, longueur d'onde, etc.).

On analyse par spectroscopie non seulement la lumière visible, mais aussi le rayonnement électromagnétique dans toutes les gammes de fréquence, les ondes élastiques comme le son ou les ondes sismiques, ou encore des particules .

Spectroscopie d'absorption moléculaire


Les rayonnements électromagnétiques exploités vont de l'ultraviolet jusqu'aux ondes radio :
Onde électromagnétiqueTransition électronique, vibration ou rotation moléculaires3Spectroscopie
Ultraviolet et VisibleTransitions électroniquesSpectroscopie ultraviolet-visible
InfrarougeVibrations de moléculesSpectroscopie infrarouge
Combinaison vibration-rotation de moléculesSpectroscopie Raman
Micro-ondesRotations de moléculesSpectroscopie micro-onde
Ondes radioRotations de molécules
( source : Wikipédia )

D'après les éléments de fait dont je dispose  , la spectroscopie est utilisée arbitrairement sur des personnes ciblées à des fins psychophysiques et psychoacoustiques. Principalement la spectrométrie plasma induite par laser .

La psychophysique est une branche de la psychologie expérimentale qui cherche à déterminer les relations quantitatives qui existent entre un stimulus physique et la perception qu'on en a.

La psychoacoustique est la branche de la psychophysique qui étudie les rapports entre les perceptions auditives de l'être humain et les sons qui parviennent à ses oreilles. Elle fait appel à l'acoustique, qui étudie la nature et les propriétés des ondes sonores, à la physiologie de l'audition, qui examine dans quelle mesure elles se transforment en influx nerveux, à la psychologie et aux sciences cognitives.
( source : Wikipédia )

lundi 22 mai 2017

Stop Electronic Harassment/Harcèlement électromagnétique



Cette vidéo m'a été envoyée par Bogéna Kvaltinova


Mobilisation contre les abus des nanosciences et nanotechnologies

jeudi 11 mai 2017



La science est un danger public.Elle est aussi dangereuse qu’elle a été bienfaisante. Toute découverte de la science pure est subversive en puissance ; toute science doit parfois être traitée comme un ennemi

( Huxley)

lundi 17 avril 2017

Speckle d'un faisceau laser



Les petits losanges que vous voyez sur le verre de mes lunettes sont de minuscules speckles issues d'interférences optiques provenant d'un laser à impulsions brèves et ultra-intenses type laser femtoseconde ou lidar . Ce qui est encore plus grave c'est que j'en capture aussi à l'intérieur de mon domicile . Ces speckles caractérisent une information de type pixel ou voxel .
À l'œil nu on voit seulement que de très petites particules comme de la poussière, mais avec un zoom on voit clairement la forme en losange de l'interférence optique .


Speckles d'interférences optiques capturées ,  avec un caméscope en position zoom , sur l'éclairage de lampadaires .  


Speckles sur le verre de mes lunettes , capture avec mon caméscope en position zoom à l'intérieur de mon domicile .

Les conséquences sont extrêmement graves ,  avec ce système , l'opérateur peut faire de la télémanipulation sur des cibles humaines ( piqûres , petits trous dans la peau comme sur la photo ci-dessous , excitation de la membrane cellulaire et des neuromédiateurs (appelée également neurotransmetteur), etc. ) ...

Cette contrainte provoque un comportement étrange , l'influx nerveux ne peut se propager naturellement , normalement . En effet , le champ électrique intense ( laser-plasma ) provoque l'excitation forcée de la membrane cellulaire et des organites à l'intérieur de la cellule , lesquels déclenchent des neurotransmetteurs (les neurotransmetteurs sont des composés chimiques libérés par les neurones) , par exemple l'acétylcholine , la sérotonine , la dopamine ...

Lorsque l'intensité du champ électrique en un point à la surface de la peau est ultra-intense , ça déclenche des potentiels post-synaptiques , les muscles se contractent .

                                                      ( source : lfp-tpe-2016.wixsite )













                                                           ( source : db-gersite )

L'opérateur utilise la violence pour infliger de fortes souffrances à sa victime . Cela à des fins
d'expérimentations cognitives et biologiques .

Des sons binauraux ou isochrones sont également utilisés par l'opérateur .

Copernicus est le nom d'un « programme européen de surveillance de la Terre ».

Or , Copernicus connaît vraisemblablement ce système , pourquoi laisse t'il faire ?

Dans le cas contraire , comment se fait-il qu'il ne s'en soit jamais aperçu ?

Où alors , ce programme est-il impliqué ?

Déposer plainte contre Copernicus me semble possible , je vais me renseigner.


mercredi 5 avril 2017

Copernicus (programme)

Copernicus est le nom d'un « programme européen de surveillance de la Terre ». Ce programme était auparavant nommé Global Monitoring for Environment and Security ou GMES dans les versions anglaises (on conserve parfois dans la version française le sigle GMES, utilisé par tous les acteurs européens).

Il s'agit d'une initiative conjointe de l'Agence spatiale européenne (ESA) et, au travers de l'Agence européenne pour l'environnement (AEE), de l'Union européenne, qui vise à doter l'Europe d'une capacité opérationnelle et autonome d'observation de la Terre en tant que « services d’intérêt général européen, à accès libre, plein et entier ».

La France s'y associe notamment via le « plan d’applications satellitaires » du ministère du développement durable, décidé en 2011.

Objectifs

Ce programme vise à rationaliser l'utilisation de données relatives à l'environnement et à la sécurité issues de sources multiples, afin de disposer d'informations et de services fiables chaque fois que cela est nécessaire. En d'autres termes, Copernicus permettra de rassembler l'ensemble des données obtenues à partir de satellites environnementaux et d'instruments de mesure sur site, afin de produire une vue globale et complète de l'état de notre planète.

Les décideurs politiques font partie des principaux utilisateurs du programme Copernicus, qui leur permet de préparer les législations nationales, européennes et internationales relatives à l'environnement (y compris celles sur le changement climatique et le droit international de la mer) et de vérifier la bonne application de ces législations.

Copernicus s'appuie sur quatre « piliers » :

   1. une composante spatiale (constituée de satellites d'observation du sol, des océans et de                        l'atmosphère),
   2. une composante in-situ (constituée d'instruments de mesure au sol ou aériens mesurant des                  paramètres relatifs à l'état des océans, du sol et de l'atmosphère),
   3. une composante normalisation et harmonisation des données,
   4. une composante de services à l'utilisateur.

L'information offerte par le programme Copernicus sera regroupés autour de six thèmes : le sol, les océans, le traitement de l'urgence, l'atmosphère, la sécurité et le changement climatique. Les services relatifs au sol, aux océans et au traitement de l'urgence et ceux relatifs à l'atmosphère et à la sécurité (aussi appelés « services pilotes ») ont été officiellement lancés à l'occasion du Forum Copernicus à Lille en septembre 2008. Ces services, actuellement en phase pré-opérationnelle, devaient entrent en phase opérationnelle en 2011 et être pleinement opérationnels en 2014.

Copernicus est donc en marche vers son fonctionnement opérationnel. La définition et la mise en place d'une gestion et d'une structure de financement européennes sont des éléments clés de la réussite du programme.

Historique

Chronologie

. 19 mai 1998 : les institutions participant au développement des activités spatiales européennes donnent naissance au GMES par la déclaration connue sous le nom de « Baveno Manifesto ». À l'époque, GMES signifie « Global Monitoring for Environmental Security » (surveillance mondiale de la sécurité environnementale).

. 1999 : GMES change de signification et devient « Global Monitoring for Environment and Security » (surveillance mondiale de l'environnement et de la sécurité), illustrant ainsi que la surveillance de l'environnement a également des implications en termes de sécurité.

. 15-16 juin 2001 : à l'occasion du sommet de Göteborg, les chefs d'États et de gouvernements demandent que la Communauté contribue à l'établissement d'une capacité européenne de surveillance globale pour l'environnement et la sécurité à horizon 2008.

. Octobre 2002 : la nature et le périmètre de la composante « sécurité » du GMES sont définis comme couvrant la prévention et le traitement des crises liées aux risques naturels et technologiques, à l'aide humanitaire et à la coopération internationale, à la surveillance du respect des traités internationaux pour la prévention des conflits, l'aide humanitaire et le secours, les opérations de maintien de la paix et la surveillance des frontières de l'Union européenne.

. Février 2004 : la communication de la Commission « GMES : mise en place d'une capacité GMES d'ici 2008 » introduit un plan d'action visant à établir une capacité GMES en 2008. En 2004, un accord cadre entre la Commission européenne et l'Agence spatiale européenne (ESA) est également signé afin d'établir les fondements de la composante spatiale du GMES.

. Mai 2005 : la communication de la Commission « GMES: du concept à la réalité » établit les priorités pour l'entrée en service des services GMES en 2008, en mettant l'accent sur les services de surveillance du sol, de surveillance des océans et de traitement de l'urgence. Des services ultérieurs appelés « services pilotes » traiteront de la surveillance de l'atmosphère, de la sécurité et du changement climatique.

. Juin 2006 : la Commission européenne crée le Bureau GMES, avec comme mission principale d'assurer la disponibilité à l'horizon 2008 des services jugés prioritaires. Le Bureau a également pour objectif de traiter les questions de gestion du GMES et du financement du système à long terme.

. Mai 2007 : adoption de la Communication sur la politique spatiale européenne, reconnaissant GMES comme une initiative phare de la politique spatiale de l'Union.

. Septembre 2008 : lancement officiel des trois services FTS et des deux services pilotes dans leur version pré-opérationnelle, à l'occasion du Forum GMES de Lille.

. Novembre 2008 : la communication de la Commission « GMES: le souci d'une planète plus sûre » établit la base des futures discussions relatives au financement, à l'infrastructure opérationnelle et à la gestion effective du GMES.

. Mai 2009 : la proposition de la Commission concernant un règlement sur « le programme européen d'observation de la terre (GMES) et sa mise en œuvre initiale (2011-2013) » propose une base légale pour le programme GMES et le financement par la Commission européenne de sa mise en œuvre initiale.

. Novembre 2010 : le règlement sur « le programme européen d'observation de la terre (GMES) et sa mise en œuvre initiale (2011-2013) » entre en vigueur.

( source : Wikipédia )

lundi 3 avril 2017

Devenir du faisceau laser lors de son contact avec la peau



Effets du laser sur les tissus

Les impacts produits par le rayonnement laser sur les tissus vivants dépendent de la puissance émise par unité de surface et de la durée d’exposition au rayonnement . Celui-ci est transformé en d’autres formes d’énergie quand il est absorbé par les tissus cibles.

Dans des ordres décroissant d’irradiance (puissance/cm2) et croissant de durée d’exposition, ces effets peuvent être photo spasmolytiques, photo-ablatifs, photothermiques ou photochimiques : une irradiation faible associée à une durée de traitement de plusieurs minutes convertit l’énergie lumineuse en énergie chimique

Effets photo spasmolytiques

Un laser de grande puissance (de l’ordre du kW/cm2 délivré par une fibre optique de quelques microns) émettant des impulsions de l’ordre de la picoseconde génère des champs électriques tels que les effets électromécaniques sont capables de porter un matériau à l’état d’un gaz ionisé et désordonné, appelé plasma.

L’onde de choc associée à la formation et à l’expansion de ce plasma engendre des ondes de pression extrêmement importantes et, par conséquent, une rupture mécanique du matériau.

( source : lepointveterinaire )

mercredi 8 mars 2017

Laser femtoseconde et scientifiques

« Nous avons l'habitude d'avoir un problème et de chercher une solution. Dans le cas du laser, nous avons déjà la solution et nous cherchons le problème » annonce Pierre Aigrain (ancien secrétaire d'État à la Recherche, Chercheur et membre de l'Académie des Sciences à l'époque de la découverte du laser)

La  solution qui cherche un problème  ! .  

Le laser dépend de la volonté , du bon plaisir de quelqu'un et intervient , en ce qui concerne le système à énergie dirigée , en violation de la loi . 

Dans ce cas  , le laser est une solution pour le tyran et un problème pour les victimes .