OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 La (non) parité révélée au coeur des sciences http://owni.fr/2012/11/13/la-non-parite-revelee-au-coeur-des-sciences/ http://owni.fr/2012/11/13/la-non-parite-revelee-au-coeur-des-sciences/#comments Tue, 13 Nov 2012 15:09:15 +0000 Sylvain Lapoix http://owni.fr/?p=125817 The Chronicle a visualisé la place des femmes dans les publications scientifiques du XVIIe siècle à nos jours en analysant les deux millions d'auteurs référencés par la base d'articles universitaires Jstor. Un travail de tri phénoménal pour un constat irrévocable sur l'absence totale de parité dans la communauté.]]>

Le chiffre pourrait être une mauvaise blague machiste, il s’agit malheureusement d’une statistique : sur plus de 1 800 champs scientifiques référencés, les femmes ne sont plus auteurs majoritaires de publications scientifiques que dans les domaines concernant les gender studies, l’histoire du féminisme, l’étude des suites de grossesses, l’apprentissage chez les jeunes enfants et la recherche sur les étudiants issues des minorités.

La première visualisation s'appuyait déjà sur la base de données Jstor des publications scientifiques pour évaluer la place réelle des femmes selon les champs d'expertise.

Poursuivant le travail mené par les chercheurs Jevin West et Jennifer Jacquet, spécialiste de l’étude des genres à l’université de Washington, le magazine universitaire The Chronicle a remis en forme les conclusions de leur première tentative de visualisation de la place des femmes dans les publications scientifiques (au départ visualisé avec la librairie Javascript Infovis, voir ci-dessus).

L’initiative elle-même s’inscrit dans le projet Eigenfactor, visant à évaluer le poids relatif des publications scientifiques dans leurs domaines. Basé sur l’algorithme du même nom, le système sert de base à l’évaluation du degré de domination masculine des diverses spécialités en s’appuyant sur la somme des articles de deux millions d’auteurs, étalée entre 1665 et 2011. À partir des données récoltées, les auteurs de la base ont croisé les informations avec les données de la Sécu américaine pour trancher si les prénoms étaient attribués en majorité à des hommes ou à des femmes et en ont tiré les statistiques utilisées.

En cliquant sur chaque champs, il est possible de consulter les données portant sur les sous-champs qui le compose et ainsi de suite.

Remixé par The Chronicle, la base de données offre un panorama détaillé et édifiant de la situation des femmes dans les publications scientifiques. À chaque champ correspond une barre colorée, dont la partie foncée correspond au pourcentage de femmes auteurs, tandis que les cercles sont proportionnés aux nombres d’auteurs (le record en la matière est détenu par les sciences cognitives avec 29,6% de femmes). D’un clic sur la discipline et se déploient les barres correspondants aux sous-champs d’étude, comme ci-dessus avec la biologie moléculaire et cellulaire) et ainsi de suite jusqu’à épuisement des spécialités.

Il est également possible de choisir la période de référence (des origines à 1970, de 1971 à 1990 et de 1990 à nos jours), permettant d’apprécier une relative progression de la place des femmes dans les sciences. Un dernier filtre permet de ne viser que les premiers ou derniers auteurs, les premiers étant généralement les plus grands contributeurs aux travaux de recherche (sauf en économie et mathématique où les noms sont souvent annoncés par ordre alphabétique) et le dernier désignant dans les sciences du vivant le directeur de recherche.

]]>
http://owni.fr/2012/11/13/la-non-parite-revelee-au-coeur-des-sciences/feed/ 10
L’évolution en bourgeons numériques http://owni.fr/2012/10/22/evolution-en-bourgeons-numeriques/ http://owni.fr/2012/10/22/evolution-en-bourgeons-numeriques/#comments Mon, 22 Oct 2012 11:21:09 +0000 Sylvain Lapoix http://owni.fr/?p=123648 Capture d'écran du site - OneZoom Tree of Life Explorer

Capture d'écran du site - OneZoom Tree of Life Explorer

Veille data

Au début, il y a 166,2 millions d’années, c’était une modeste bouture où ne se balançaient que quelques porcs-épics. Puis se sont élancés de branches en branches, les marsupiaux (147,1 millions d’années), les Afrotheria (famille des éléphants) suivis dans les ramages par les taupes, les dauphins et autres écureuils… Ce vieil arbre généalogique des mammifères, jaunis en poster dans nos salles de classe, OneZoom le dépoussière d’une superbe application.

Capture d'écran du site - OneZoom Tree of Life Explorer

Capture d'écran du site - OneZoom Tree of Life Explorer


Capture d'écran du site - OneZoom Tree of Life Explorer

Capture d'écran du site - OneZoom Tree of Life Explorer

Fruit du travail de James Rosindell, théoricien de la biodiversité à l’Imperial College de Londres, et de Luke Harmon, collaborateur du laboratoire des sciences du vivant à l’Université d’Idaho, ce projet voit bien plus loin que les mammifères : les deux scientifiques souhaitent en faire “l’équivalent de Google Maps pour l’ensemble de la vie sur Terre”.

Le logiciel s’appuie sur une visualisation en fractale d’une base de données de 5 000 espèces de mammifères (l’extension portant sur les bactéries est téléchargeable sur le site [attention, ça peut être un peu long] et les amphibiens arrivent), comprenant le détail des embranchements, l’âge de séparation, les noms latins… Paramétrable selon trois modes de visualisation (spirale, plume ou arbre), cet arbre phylogénétique interactif peut également se déployer suivant l’évolution des mammifères, ses origines jusqu’à nos jours, grâce à l’option “Open Growth Animation bar” disponible dans le coin supérieur droit. En modifiant les couleurs, OneZoom offre enfin la possibilité d’afficher le niveau de menace d’extinction selon l’indice de l’organisation internationale de défense de la biodiversité, IUCN.

Les deux auteurs ont développé le projet en open source et invitent à la réutilisation du soft pour d’autres applications (visualisation des flux financiers, base de données sur la santé et les drogues…). OneZoom sera bientôt distribué sous forme de dossiers pédagogiques à destination des écoles et de l’enseignement supérieur ou d’installation interactives pour les musées, zoo et jardins botaniques. Ses créateurs espèrent bientôt enrichir la base avec les animaux domestiques, des photos et bien plus d’informations. Une démarche qui pourrait prendre une toute autre ampleur dans les mois à venir : à l’horizon 2014, en nouant racine avec le Open Tree of Life Project, OneZoom pourrait recueillir deux millions d’espèces dans ses feuilles digitales.

]]>
http://owni.fr/2012/10/22/evolution-en-bourgeons-numeriques/feed/ 8
L’avenir de la médecine en open source http://owni.fr/2012/07/03/lavenir-de-la-medecine-en-open-source/ http://owni.fr/2012/07/03/lavenir-de-la-medecine-en-open-source/#comments Tue, 03 Jul 2012 08:55:08 +0000 aKa (Framasoft) http://owni.fr/?p=114580 The Economist traduit par Framasoft. Certains chercheurs prônent donc les techniques et modèles open source. Quitte à inquiéter quelques industriels.]]>

La technologie a fait faire à la santé d’extraordinaires progrès. Mais libre ou propriétaire ? Dans le domaine des appareils médicaux pilotés par des logiciels ce choix peut avoir de très lourdes conséquences.

Vulnérable

Les pompes SMART délivrent des médicaments parfaitement dosés pour chaque patient. Des défibrillateurs faciles à utiliser peuvent ramener des victimes d’attaque cardiaque d’entre les morts. Les pacemakers et cœurs artificiels maintiennent les gens en vie en s’assurant que la circulation sanguine se déroule sans problème. Les appareils médicaux sont une merveille du monde moderne.

Alors que ces appareils sont devenus de plus en plus efficients, ils deviennent cependant de plus en plus complexes. Plus de la moitié des appareils médicaux vendus aux États-Unis (le plus grand marché de la santé) s’appuient sur du logiciel, et souvent en grande quantité. Ainsi, le logiciel dans un pacemaker peut nécessiter plus de 80.000 lignes de code, une pompe à perfusion, 170.000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.

Cette dépendance grandissante vis-à-vis du logiciel cause des problèmes bien connus de tous ceux qui ont déjà utilisé un ordinateur : bugs, plantages, et vulnérabilités face aux attaques. Les chercheurs de l’université de Patras en Grèce ont découvert qu’un appareil médical sur trois vendu aux États-Unis entre 1995 et 2005 a été rappelé pour défaillance du logiciel. Kevin Fu, professeur d’informatique à l’université du Massachusetts, estime que ce phénomène a affecté plus de 1,5 millions d’appareils individuels depuis 2002.

En avril, les chercheurs de la firme de sécurité informatique McAfee ont annoncé avoir découvert un moyen pour détourner une pompe à insuline installée dans le corps d’un patient en injectant l’équivalent de 45 jours de traitement d’un seul coup. Enfin, en 2008, Dr Fu et ses collègues ont publié un article détaillant la reprogrammation à distance d’un défibrillateur implanté.

Or, le dysfonctionnement du logiciel d’un appareil médical a des conséquences beaucoup plus désastreuses que d’avoir seulement à faire redémarrer votre ordinateur. Durant les années 1980, un bug dans le logiciel des machines de radiothérapie Therac-25 a provoqué une overdose de radiations administrées à plusieurs patients, en tuant au moins cinq.

L’ organisation américaine de l’alimentation et des médicaments, l’America’s Food and Drug Administration (FDA), s’est penchée sur le cas des pompes à perfusion qui ont causé près de 20.000 blessures graves et plus de 700 morts entre 2005 et 2009. Les erreurs logicielles étaient le problème le plus fréquemment cité. Si, par exemple, le programme buggé interprète plusieurs fois le même appui sur une touche, il peut administrer une surdose.

En plus des dysfonctionnements accidentels, les appareils médicaux sans fils ou connectés sont également vulnérables aux attaques de hackers malveillants. Dans le document de 2008 du Dr Fu et de ses collègues, il est prouvé qu’un défibrillateur automatique sous-cutané peut être reprogrammé à distance, bloquer une thérapie en cours, ou bien délivrer des chocs non attendus.

Le Dr Fu explique que lors des phases de test de leur logiciel, les fabricants d’appareils manquent de culture de la sécurité, culture que l’on peut trouver dans d’autres industries à haut risque, telle que l’aéronautique. Insup Lee, professeur d’Informatique à l’Université de Pennsylvanie, confirme :

Beaucoup de fabricants n’ont pas l’expertise ou la volonté d’utiliser les mises à jour ou les nouveaux outils offerts par l’informatique.

Personne ne peut évaluer avec certitude l’étendue réelle des dégâts. Les logiciels utilisés dans la majorité des appareils médicaux sont propriétaires et fermés. Cela empêche les firmes rivales de copier le code d’une autre entreprise, ou simplement de vérifier des infractions à la propriété intellectuelle. Mais cela rend aussi la tâche plus ardue pour les experts en sécurité.

La FDA, qui a le pouvoir de demander à voir le code source de chaque appareil qu’elle autorise sur le marché, ne le vérifie pas systématiquement, laissant aux constructeurs la liberté de valider leurs propres logiciels. Il y a deux ans, la FDA offrait gratuitement un logiciel “d’analyse statique” aux constructeurs de pompes à perfusion, dans l’espoir de réduire le nombre de morts et de blessés. Mais aucun constructeur n’a encore accepté l’offre de la FDA.

Plus stables et moins chères

Frustrés par le manque de coopération de la part des fabricants, certains chercheurs veulent maintenant rebooter l’industrie des appareils médicaux en utilisant les techniques et modèles open source. Dans les systèmes libres, le code source est librement partagé et peut être visionné et modifié par quiconque souhaitant savoir comment il fonctionne pour éventuellement en proposer une version améliorée.

En exposant la conception à plusieurs mains et à plusieurs paires de yeux, la théorie veut que cela conduise à des produits plus sûrs. Ce qui semble bien être le cas pour les logiciels bureautiques, où les bugs et les failles de sécurité dans les applications open source sont bien souvent corrigés beaucoup plus rapidement que dans les programmes commerciaux propriétaires.

Le projet d’une pompe à perfusion générique et ouverte (Generic Infusion Pump), un effort conjoint de l’Université de Pennsylvanie et de la FDA, reconsidère ces appareils à problèmes depuis la base. Les chercheurs commencent non pas par construire l’appareil ou écrire du code, mais par imaginer tout ce qui peut potentiellement mal fonctionner dans une pompe à perfusion. Les fabricants sont appelés à participer, et ils sont plusieurs à le faire, notamment vTitan, une start-up basée aux États-Unis et en Inde. Comme le souligne Peri Kasthuri, l’un de ses cofondateurs :

Pour un nouveau fabricant, c’est un bon départ.

En travaillant ensemble sur une plateforme open source, les fabricants peuvent construire des produits plus sûrs pour tout le monde, tout en gardant la possibilité d’ajouter des fonctionnalités pour se différencier de leur concurrents. Des modèles mathématiques de designs de pompes à perfusion (existantes ou originales) ont été testés vis à vis des dangers possibles, et les plus performantes ont été utilisées pour générer du code, qui a été installé dans une pompe à perfusion de seconde main achetée en ligne pour 20 dollars. Comme le confie Dave Arnez, un chercheur participant à ce projet :

Mon rêve est qu’un hôpital puisse finalement imprimer une pompe à perfusion utilisant une machine à prototypage rapide, qu’il y télécharge le logiciel open source et que l’appareil fonctionne en quelques heures.

L’initiative Open Source Medical Device de l’université Wisconsin-Madison est d’ambition comparable. Deux physiciens médicaux (NdT : appelés radiophysiciens ou physiciens d’hôpital), Rock Mackie et Surendra Prajapati, conçoivent ainsi une machine combinant la radiothérapie avec la tomographie haute résolution par ordinateur, et la tomographie par émission de positron.

Le but est de fournir, à faible coût, tout le nécessaire pour construire l’appareil à partir de zéro, en incluant les spécifications matérielles, le code source, les instructions d’assemblages, les pièces suggérées — et même des recommandations sur les lieux d’achat et les prix indicatifs. Comme le déclare le Dr Prajapati :

La machine devrait coûter environ le quart d’un scanner commercial, la rendant attractive pour les pays en voie de développement. Les appareils existants sont coûteux, autant à l’achat qu’à la maintenance (là ou les modèles libres sont plus durables NDLR). Si vous pouvez le construire vous-même, vous pouvez le réparer vous-même

Code source standardisé

Les appareils open source sont littéralement à la pointe de la science médicale. Un robot chirurgien open source nommé Raven, conçu à l’Université de Washington à Seattle fournit une plateforme d’expérimentation abordable aux chercheurs du monde entier en proposant de nouvelles techniques et technologies pour la chirurgie robotique.

Tous ces systèmes open source travaillent sur des problématiques diverses et variées de la médecine, mais ils ont tous un point commun : ils sont encore tous interdit à l’utilisation sur des patients humains vivants. En effet, pour être utilisés dans des centres cliniques, les appareils open source doivent suivre les mêmes longues et coûteuses procédures d’approbation de la FDA que n’importe quel autre appareil médical.

Les réglementations de la FDA n’imposent pas encore que les logiciels soient analysés contre les bugs, mais elles insistent sur le présence d’une documentation rigoureuse détaillant leur développement. Ce n’est pas toujours en adéquation avec la nature collaborative et souvent informelle du développement open source. Le coût élevé de la certification a forcé quelques projets open source à but non lucratif à modifier leur business model. Comme l’explique le Dr Mackie :

Dans les années 90, nous développions un excellent système de planning des traitements de radiothérapie et avions essayé de le donner aux autres cliniques, mais lorsque la FDA nous a suggéré de faire approuver notre logiciel, l’hôpital n’a pas voulu nous financer.

Il a fondé une société dérivée uniquement pour obtenir l’approbation de la FDA. Cela a pris quatre ans et a couté des millions de dollars. En conséquence, le logiciel a été vendu en tant qu’un traditionnel produit propriétaire fermé.

D’autres tentent de contourner totalement le système de régulation américain. Le robot chirurgical Raven (Corbeau) est destiné à la recherche sur les animaux et les cadavres, quant au scanner de l’Open Source Medical Device, il est conçu pour supporter des animaux de la taille des rats et des lapins. “Néanmoins, déclare le Dr Mackie, rien n’empêche de reprendre le design et de lui faire passer les procédures de certification dans un autre pays. Il est tout à fait envisageable que l’appareil soit utilisé sur des humains dans d’autres parties du monde où la régulation est moins stricte, avance-t-il. Nous espérons que dans un tel cas de figure, il sera suffisamment bien conçu pour ne blesser personne.”

Changer les règles

La FDA accepte progressivement l’ouverture. Le Programme d’interopérabilité des appareils médicaux Plug-and-Play, une initiative de 10 millions de dollars financé par le NIH (l’Institut National de la Santé) avec le support de la FDA, travaille à établir des standards ouverts pour interconnecter les appareils provenant de différents fabricants. Cela signifierait, par exemple, qu’un brassard de pression artérielle d’un certain fabricant pourrait commander à une pompe à perfusion d’un autre fabricant d’arrêter la délivrance de médicament s’il détecte que le patient souffre d’un effet indésirable.

Le framework de coordination des appareils médicaux (Medical Device Coordination Framework), en cours de développement par John Hatcliff à l’Université de l’État du Kansas, est plus intrigant encore. Il a pour but de construire une plateforme matérielle open source comprenant des éléments communs à beaucoup d’appareils médicaux, tels que les écrans, les boutons, les processeurs, les interfaces réseaux ainsi que les logiciels pour les piloter. En connectant différents capteurs ou actionneurs, ce cœur générique pourrait être transformé en des dizaines d’appareils médicaux différents, avec les fonctionnalités pertinentes programmées en tant qu’applications (ou apps) téléchargeables.

À terme, les appareils médicaux devraient évoluer vers des ensembles d’accessoires spécialisés (libres ou propriétaires), dont les composants primaires et les fonctionnalités de sécurité seraient gérés par une plateforme open source. La FDA travaille avec le Dr Hatcliff pour développer des processus de création et de validation des applications médicales critiques.

Dans le même temps, on tend à améliorer la sécurité globale et la fiabilité des logiciels dans les appareils médicaux. Le NIST (Institut national des États-Unis des normes et de la technologie) vient juste de recommander qu’une seule agence, probablement la FDA, soit responsable de l’approbation et de la vérification de la cyber-sécurité des appareils médicaux, et la FDA est en train de réévaluer ses capacités à gérer l’utilisation croissante de logiciels.

De tels changements ne peuvent plus attendre. Comme le dit le Dr Fu :

Quand un avion s’écrase, les gens le remarquent mais quand une ou deux personnes sont blessées par un appareil médical, ou même si des centaines sont blessées dans des régions différentes du pays, personne n’y fait attention.

Avec des appareils plus complexes, des hackers plus actifs et des patients plus curieux et impliqués, ouvrir le cœur caché de la technologie médicale prend vraiment ici tout son sens.


Article initialement traduit et publié sur Framasoft et paru dans  The Economist sous le titre “When code can kill or cure”
Photos et illustrations sous licence creative commons par YanivG, Czar et Gwen Vanhee

]]>
http://owni.fr/2012/07/03/lavenir-de-la-medecine-en-open-source/feed/ 11
Le bon son qui prend la tête http://owni.fr/2012/05/21/le-bon-son-qui-prend-la-tete/ http://owni.fr/2012/05/21/le-bon-son-qui-prend-la-tete/#comments Mon, 21 May 2012 13:35:36 +0000 Thomas Deszpot http://owni.fr/?p=110293

Affichée à 199.95$ (environ 155€), “Gate of Hades”, est une dose star. Pour justifier un tel prix, la société I-doser qui commercialise ce fichier sonore un peu particulier promet d’incroyables effets“Attendez-vous à des cauchemars, des expériences de mort imminente, à voir apparaître un peur violente” peut-on lire dans le petit descriptif qui l’accompagne. À en croire les témoignages d’utilisateurs, certaines doses entraînent des réactions très intenses. Sur le forum i-doser-x, qui rassemble une communauté de 13.000 utilisateurs, certains n’hésitent pas à raconter leur expérience :

Pendant les 3 premières minutes, j’avais l’impression de perdre mon temps. Puis d’un coup, je me vois dans une forêt, en train de marcher et de voir des scènes de ma vie à ma droite et à ma gauche. D’un coup je m’envole sur le nuage magique de San Goku [...] c’est alors que je retombe. Là, je me précipite vers une lumiere blanche et me réveille avec un grand sourire.

Andréas est un membre régulier du forum, où la moyenne d’âge oscille autour de 17 ans. Il a découvert les doses “il y a trois ou quatre ans, en se baladant sur Internet.” Cet habitué, qui a développé certaines doses lui-même, a été impressionné par les effets ressentis : “On pourrait parler d’un état extatique, j’ai eu des visions intenses, des formes d’hallucinations. Les lumières pulsaient, les couleurs bavaient, le tout était accompagné d’une grande énergie et d’une grande euphorie.” Comme lui beaucoup d’ados tentent l’expérience et s’essaient aux différentes doses. Pour s’en procurer, aucun lien illégal n’est toléré dans les conversations ou sur le chat, mais il suffit d’un bref passage sur Google pour trouver son bonheur.

Provoquer des visions ou des sensations à l’écoute d’un simple son peut surprendre, mais I-doser ne fait là qu’exploiter un champ de la science encore peu exploré : les battements binauraux. Pour en retrouver les premières traces, il faut remonter en 1839. A l’époque, c’est Heinrich Wilhelm Dove, physicien et météorologiste prussien de son état qui découvre le phénomène. Il les obtient en jouant séparément dans chaque oreille des sons similaires, seulement séparés de quelques hertz. Le cerveau, qui ne perçoit de différence qu’au-delà de 30Hz d’écart émet alors ses propres ondes, aux multiples effets sur le corps humain.

Ces effets, il a fallu attendre près de 150 ans avant de les mettre en évidence. Dans les années 1970-1980, des chercheurs américains ont poursuivi les travaux sur le sujet. En combinant de nombreuses fréquences, ils ont réussi à générer quatre types d’ondes bien distincts, qui produisent chacun des effets particuliers :

> Les ondes dominantes Bêta : supérieures à 13 Hz et qui correspondent à un état d’éveil, d’activité

> Les ondes dominantes Alpha : de 8 à 13 Hz et favorables au repos, à la relaxation

> Les ondes dominantes Thêta : de 4 à 7,5 Hz associées à un sommeil léger

> Les odes dominantes Delta : de 0,5 à 3,5 Hz et typiques du sommeil moyen et profond

Pour créer ses doses, I-doser associe donc plusieurs combinaisons de fréquences selon le résultat recherché. Pour que le procédé fonctionne, l’utilisateur doit bien sûr se munir d’un casque stéréo, indispensable pour dissocier les sons.

Devenu un phénomène de mode, les battements binauraux laissent perplexe une bonne partie de la communauté scientifique. Auteure d’un mémoire sur le sujet en 2006, la psychologue clinicienne Brigitte Forgeot a voulu en prouver l’efficacité, avec des résultats probants à la clef. Pour effectuer ses tests, elle a utilisé un simple logiciel permettant de générer des sons binauraux :

Lors de mes recherches, je me suis concentrée sur les ondes Alpha. J’ai pu constater de nets effets sur la tension ou la concentration. Les perspectives thérapeutiques sont énormes : pour le traitement de l’insomnie par exemple. Après 6 semaines d’écoute, les troubles du sommeil chez certains patients ont été résorbés.

Si la psychologue n’hésite pas à utiliser cette méthode avec ses patients, il reste beaucoup de travail pour la démocratiser. Souvent comparée à une “drogue numérique”, elle peine à se faire une place dans la médecine traditionnelle. La faute peut-être à certaines doses récréatives proposées par les entreprises spécialisées, qui se vantent de reproduire les effets de la marijuana ou du crack.

Le terme “drogue numérique”, Brigitte Forgeot le trouve “farfelu”. Selon elle, “il s’agit surtout d’un effet marketing pour susciter la curiosité des utilisateurs”. Et d’ajouter : “il n’y a aucun phénomène de dépendance, et théoriquement pas de risque puisqu’il s’agit simplement de faciliter la production de certaines ondes par notre cerveau.”

Si elles ne présentent pas de danger apparent, les doses vendues par les sociétés spécialisées représentent un commerce fructueux. Proposées à des tarifs compris entre 2.5 et 200$, elle sont allègrement crackées. Leur prix d’autant plus exorbitant que la conception d’une dose est relativement aisée, une fois quelques règles de base assimilées. Des détournements qui n’inquiètent pas les leaders du marché : dans une interview donnée fin 2010, le président d’I-doser revendiquait plusieurs dizaines d’employés et un million de téléchargement de son logiciel.


Illustrations par EJP Photos [CC-byncsa] et Woodelywonderworks [CC-by]

]]>
http://owni.fr/2012/05/21/le-bon-son-qui-prend-la-tete/feed/ 13
Bactéries du futur [3/3] http://owni.fr/2012/03/26/bacteries-du-futur-33/ http://owni.fr/2012/03/26/bacteries-du-futur-33/#comments Mon, 26 Mar 2012 13:57:16 +0000 Marion Wagner http://owni.fr/?p=103214


[Suite de notre enquête sur la biologie de synthèse. Retrouvez ici la première et la deuxième partie]


Diplomatie et financement

Il pleut. À l’intérieur du bâtiment Necker du ministère de l’économie et des finances, à Bercy, le Conseil général de l’industrie, de l’énergie et des technologies est installé au bout d’un long dédale de couloirs feutrés et incurvés.

Françoise Roure y préside la section Technologies et société :

En Chine, au Brésil, aux États-Unis la biologie de synthèse fait partie de programmes subventionnés par les pouvoirs publics. Chacun a un prisme particulier. En Chine c’est l’autosuffisance alimentaire de long terme, c’est-à-dire nourrir 1,3 milliard d’habitants sur 100 ans, au Brésil c’est le décollage économique par l’exploitation de ressources organiques et aux États-Unis les besoins énergétiques sont énormes. Pour toutes ces raisons la biologie de synthèse pour les biocarburants fait partie des options diplomatiques et de politiques intérieures extrêmement fortes. La continuité de l’approvisionnement énergétique conditionne énormément de choses, notamment l’approvisionnement durable en eau.

Bactéries du futur [1/3]

Bactéries du futur [1/3]

Dans leurs éprouvettes, des chercheurs préparent la biologie et la génétique de demain. Des "biologistes-ingénieurs" qui ...


Le ton est donné. Françoise Roure, qui a rencontré, au nom de la France, les spécialistes de la question dans le monde entier, de l’Allemagne aux États-Unis en passant par l’Autriche, poursuit : “A l’heure actuelle, on est sous la barre des 10 millions d’euros de financements publics en France pour les projets spécifiques liés à la biologie de synthèse. Au niveau européen, nous sommes à moins de 50 millions d’euros. Je regrette que ce soit le parent pauvre des programmes de recherche. La question pour moi, d’un point de vue de la puissance publique est ‘qui va financer l’acquisition des connaissances, et de quelles connaissances?’”

Elle ajoute :

Il y a encore beaucoup d’inconnus. La puissance publique peut aider à financer des recherches en amont sur l’impact écologique ou toxicologique qui ne sont pas prises en charge par l’économie de marché, et elle doit susciter des débats éthiques.

Culture scientifique

Retour à l’Assemblée nationale, rue de l’Université. Dans son petit bureau de députée, Geneviève Fioraso ouvre puis ferme la fenêtre. Ouverte, trop de bruit ; fermée, trop chaud.

Je pense que la biologie de synthèse est une technologie de rupture. C’est important de s’y intéresser tout de suite si on ne veut pas que son évolution soit complètement guidée par l’industrie et garder la maîtrise du sens de la science.

L’élue socialiste a à cœur de mener les discussions sur les enjeux de la biologie synthétique en amont, avant ses développements industriels. “Ce n’est pas un luxe, ça permet de sortir des débats idéologiques et de posture. Ça me paraît beaucoup plus efficace que les grands principes idéologiques, comme le principe de précaution, où finalement il n’y a aucune démarche d’évaluation au fur et à mesure. Parce que franchement les débats qu’on a eux dans l’hémicycle sur les OGM n’étaient pas passionnants”.


Elle poursuit : “Pour l’instant la biologie de synthèse c’est un peu un microcosme, je suis complètement favorable à un débat science-société. Mais je pense qu’il faut travailler à rehausser le niveau scientifique des citoyens : je ne crois pas à un grand débat public mais beaucoup plus à un processus de formation continu et permanent”.

En 2011, 25 % des Français ignorent ce que sont les nanotechnologies. Les nanotubes, par exemple, qui en sont un des matériaux, des assemblages d’atomes de carbone en cylindres de quelques milliardièmes de mètres de diamètre, sont utilisés pour renforcer les raquettes de tennis ou les cadres de vélo, dans des circuits de moteurs automobiles et dans certains textiles. Leurs effets potentiels sur la santé sont encore assez méconnus, et même régulièrement montrés du doigt par certains scientifiques.

“La culture scientifique et technique des citoyens de la population française n’est pas préparée à ces débats, or la qualité de la décision publique en dépend. Aux États-Unis, la question de la biologie de synthèse a été étudiée par le comité d’éthique de la Maison Blanche. Les questions d’éthique ont le pouvoir de faire dire ‘non’ “, m’avait rappelé Françoise Roure à Bercy.

Métaphysique

Il y a une dimension métaphysique dans la biologie de synthèse. Cela touche des questions très précieuses, sacrées.

Philippe Marlière n’hésite pas : “Les premiers qui doivent être contre la biologie de synthèse sont ceux qui la font”.

Il ajoute : “On ne peut pas dire que comme la nature bricole elle-même, on peut y faire ce qu’on veut sans aucun risque. Notre savoir est assez frustre mais nous avons quand même tous les outils pour modifier une bactérie qui représente à peu près 30 % de la biomasse marine. Le temps de génération d’une bactérie est très court, une heure environ. Le risque de déplacer des équilibres, de faire changer la couleur de la mer par exemple, existe. Moi je ne le ferai pas, j’aurais des scrupules. Intrinsèquement, le risque biologique croît exponentiellement. Celui du nucléaire, lui, à l’inverse, décroît”.

Conscient que la création d’une vie artificielle prête à la controverse, le généticien assure : ” les bactéries que nous produisons sont amoindries, ce sont des loosers, elles n’ont strictement aucune chance de rentrer en compétition avec des formes sauvages, comme une souris de laboratoire ne passerait pas l’après-midi dans un égout de Paris “.

Le responsable des énergies nouvelles à Total, Vincent Schachter, avait, lui, doctement assuré d’une voix calme à l’Assemblée nationale : ” Nous manipulons des levures génétiquement modifiées de type 1, qui sont réglementées. Ensuite, -c’est la première chose-, nous travaillons en milieu confiné et nous faisons tout ce qu’il faut pour que les organismes modifiés ne sortent pas. Après, au cas où ils sortiraient, ils auront du mal à survivre en milieu naturel. Troisièmement, la manière dont ils sont modifiés n’a absolument aucun rapport avec quelque effet néfaste que ce soit. Et enfin, ‘ceinture et bretelle, toujours’, nous allons évidement tester activement l’impact environnemental de toutes les nouvelles souches bactériennes, nous nous devons de le faire “.

Bactéries du futur [2/3]

Bactéries du futur [2/3]

Tubes à essai, agitateurs, congélateurs et biologie de synthèse : bienvenue dans l'univers de Global Bioenergies. Cette ...


Philippe Marlière précise quand même: ” Bien sûr, il serait très péremptoire de ma part d’affirmer que le risque est nul. Mais les verrous peuvent être multipliés. Nous rendons nos bactéries dépendantes d’une alimentation qui n’existe pas dans la nature et que nous produisons pour elles. Lorsqu’elles n’en trouvent pas, elles meurent “.

Contradictions

L’argument ne convainc pas Dorothée Benoît-Broadweys, déléguée générale de Vivagora.

Assise devant une bière, cette biologiste de formation lâche : ” La question du partage de l’espace et de ressources limitées est importante. Même si ces micro-organismes sont alimentés par des molécules artificielles, elles-mêmes seront produites à partir de ressources qu’il faut partager. Et même si la ressource utilisée est la biomasse, les déchets agricoles, il faut veiller à la question de l’affectation des ressources biologiques. Que la production de ressources énergétiques ne remplace pas les ressources alimentaires “.

L’association entend, selon ses statuts, ” socialiser l’innovation, lui donner ‘du sens’, en plaçant l’homme et sa qualité de vie au cœur des préoccupations, c’est-à-dire permettre aux citoyens de s’emparer des enjeux technologiques, et de s’exprimer pour définir le ’souhaitable’ parmi tous les ‘possibles’ “. Elle procède en organisant des ateliers où scientifiques spécialisés et citoyens novices échangent, fidèle à son objectif : ” mettre en débat les orientations scientifiques et les innovations techniques afin de promouvoir une gouvernance plus démocratique “.

A l’initiative des premières conférences publiques sur la biologie de synthèse, en 2009, l’association a elle aussi été entendue par l’OPECST. Et elle est, à l’heure actuelle, le seul contradicteur en France dans le débat sur la biologie de synthèse.

Dorothée Benoît-Broadweys reprend : ” ce ne sont pas les risques que nous avons mis en avant lorsque nous avons été entendus par les représentants de l’autorité publique mais plutôt la question du rapport au vivant “. Elle cite un peu confusément Paul Ricoeur, Alain et d’autres philosophes dont elle a oublié le nom.

Quelle est la nouvelle donne pour nous, êtres humains qui sommes reliés à un écosystème, comment va-t-on cohabiter avec ces artefacts produits par l’Homme et dont il aura la responsabilité ? On ne peut pas continuer dans l’idée d’une technologie qui s’imaginerait qu’elle peut être toute puissante et prétendre maîtriser la nature, on le voit assez avec les pesticides, les perturbateurs endocriniens, et leurs effets sur la santé. Donc soyons un peu raisonnables, faut-il nécessairement en finir avec la finitude ?

Contre l’intelligence collective

Dans le cercle restreint des spécialistes de biologie synthétique, Vivagora a mauvaise réputation. ” C’est très bien qu’il y ait des lanceurs d’alerte sur le sujet, mais qu’ils fassent correctement leur travail. Ils ne connaissent pas les dossiers “, lâche la chargée de presse de Global Bioenergies.
Philippe Marlière ne mâche pas ses mots : ” Leur espèce de comité citoyen est une pure folie d’un point de vue scientifique, la science ne s’est jamais faite à l’applaudimètre, c’est le contraire.
La science s’est toujours construite contre l’intelligence collective, c’est la grandeur du truc. C’est aristocratique, ça veut dire le gouvernement par les meilleurs. Ça ne veut pas dire que les scientifiques gouvernent le monde mais que la société scientifique est gouvernée de manière aristocratique “
.

Il enfonce le clou : ” La position de Vivagora, qui vit de subventions publiques, est que tout est merveilleusement dangereux, tout peut dégénérer dans la pire des apocalypses, donc tout est interdit. Ce n’est pas opérationnel comme position, ce n’est pas une attitude pragmatique. Moi, je gagne de l’argent en convaincant des investisseurs, pas en tendant ma sébile auprès du contribuable “.

A l’assemblée nationale, Geneviève Fioraso grince des dents : ” Le problème, c’est que ce sont en même temps des consultants qui font payer leurs consultations. Et ils ont du mal à toucher les citoyens, ce sont plutôt des happy-few “.

Bioéconomie

La député a rencontré, outre-Atlantique, l’ONG canadienne ETC, pour Action Group on Erosion, Technology and Concentration

Elle indique : ” Leurs propos sont beaucoup plus modérés que ce qu’ils disent dans leurs rapports “.

Le dernier en date, intitulé ” Les maîtres de la biomasse ” est une somme de 90 pages. Sous-titré ” La biologie de synthèse menace la biodiversité et les modes de subsistance “, il reproduit dès son introduction les propos du père de la biologie de synthèse, Craig Venter, datés du 20 avril 2009 :

Quiconque produit des biocarburants en abondance pourrait bien finir par faire plus que des gros sous – il écrira l’histoire… Les entreprises et les pays qui y parviendront seront les vainqueurs économiques de la prochaine ère, au même titre que le sont actuellement les pays bien pourvus en ressources pétrolières.

L’ONG publie régulièrement des dossiers très documentés sur l’impact des nouvelles technologies sur les questions socio-économiques et écologiques, notamment dans les pays les plus pauvres. Elle reproduit dans celui-ci les propos du directeur général d’Amyris Biotechnologies, une start-up américaine spécialisée dans le développement de biocarburants : ” En scrutant le monde et en cherchant où se trouvait la biomasse la moins coûteuse et la plus abondante, nous avons découvert que le Brésil était vraiment l’Arabie Saoudite des énergies renouvelables. “

Total, qui a déjà investit 200 millions de dollars dans le capital d’Amyris, dont il détient plus de 20 %, pénètre le marché brésilien par l’intermédiaire de ce partenaire américain, et projette, d’ici à 2020 de posséder 5 à 10% de la production de canne à sucre brésilienne.

Des investissements qu’ETC appelle la nouvelle ” bioéconomie “, dirigée par ” les nouveaux maîtres du vivant “. Elle dénonce notamment une appropriation par une poignée d’industriels de ce monde vivant, dont la biomasse, ressource de la biologie de synthèse, est issue. L’ONG passe également au crible la conversion de terres à vocation alimentaire en terres à vocation énergétique et l’émergence de nouveaux risques biologiques incontrôlés.

Dénonçant l’arrogance des promoteurs de la biologie de synthèse, comparable à celle des tenants de l’énergie nucléaire, longtemps présentée comme sans risque et peu coûteuse, l’ONG appelle à une mobilisation de la société civile : agriculteurs, populations autochtones, et ” tous ceux qui se sentent concernés par la conservation des forêts, les aspects éthiques qui entourent les changements climatiques, les produits chimiques toxiques, la conservation des océans, la protection des déserts, les droits relatifs à l’eau “.

Elle préconise enfin que les fonds publics soient investis dans l’évaluation des coûts sociétaux et environnementaux de la biologie synthétique.

DIYBio

En France l’information est peut-être dans la zone industrielle de Nanterre. C’est là que l’association la Paillasse, la première communauté de biologistes-amateurs s’installe, au rez-de-chaussée d’un bâtiment de bureaux. Constituée il y a quelques mois elle rejoint l’Electrolab, des geeks, qui détournent les processus électroniques et informatiques pour les adapter à leurs goûts et leurs besoins, dans le plus pur esprit Do It Yourself, DIY.

Né aux États-Unis entre 2007 et 2008 le mouvement DIYBio, pour Do It Yourself biology, a depuis essaimé à Londres, à Madrid, à Vienne, à Boston, à Nanterre…

Electrolab : la révolution à propulsion silencieuse

Electrolab : la révolution à propulsion silencieuse

Le tout jeune Electrolab est un hackerspace basé à Nanterre. Comme son nom le suggère, sa marotte, c'est l'électronique. ...

Dans le demi sous-sol où elle emménage, la Paillasse a déjà accumulé une machine PCR, qui permet de répliquer à l’infini une séquence génétique, un bain-marie, des agitateurs, une centrifugeuse, des micro-pipettes. Tout le matériel, encore dans les cartons, tient sur deux tables. A côté, deux frigos, dont un pour les bactéries. Tout, ou presque, vient de Génopole. Un donateur institutionnel et généreux dont la directrice de la recherche, Françoise Russo-Marie, salue la ” démarche citoyenne “ de la Paillasse.

Leur crédo pourrait être ” pirater est bon, mais le mot a mauvaise réputation “. Car les pirates sont dociles. Une bande de jeunes très diplômés aux compétences vastes et aux centres d’intérêt variés. Ils fédèrent autour d’une poignée d’énergies motrices une dizaine d’ingénieurs, de biologistes, d’informaticiens, d’artistes et d’électrons libres.

Thomas Landrain, 26 ans, ancien étudiant à Normale Sup bio et thésard en biologie de synthèse à l’Institut de biologie systémique et synthétique d’Evry, co-fondateur de la Paillasse, m’explique :

l’idée est que la biologie est en train de devenir une technologie au même rang que l’électronique ou l’informatique, en terme de miniaturisation technologique on n’a pas encore fait mieux que les cellules vivantes ! Et comme on dispose de pièces modulaires pour fabriquer des circuits génétique, il est possible de créer des circuits chez soi, avec du matériel de laboratoire assez simple.

Il prévient : ” Il faut des autorisations pour faire des mutations génétiques actives. Nous ne voulons pas nous mettre en confrontation avec les règlements “. S’il est simple de manipuler le vivant c’est aussi plus risqué qu’en électronique ou en mécanique, puisque une cellule bactérienne génétiquement modifiée qui tombe par terre peut interagir avec son environnement.

Les bio-bidouilleurs s’enracinent

Les bio-bidouilleurs s’enracinent

La première communauté de biologistes hackers a vu le jour il y a quelques mois en France. Greffés au /tmp/lab, entre la ...

La Paillasse a donc opté pour une approche plutôt ” passive ” de la biologie de synthèse et, plus largement, de la génétique. ” Nous voulons être un laboratoire de biotechnologie ouvert, citoyen et transparent. L’idée est de rendre le pouvoir de la recherche accessible à n’importe qui. Aujourd’hui la techno-biologie est de plus en plus importante, c’est devenu une technologie routinière : on établit des diagnostiques médicaux à partir du séquençage d’un génome, les OGM nous entourent. Or ce sont des termes difficiles à comprendre. L’information génétique est partout mais paradoxalement personne ne peut y accéder.”

Le collectif souhaite, pour ses premières réalisations, fabriquer des kits de détection d’OGM, dans la nourriture ou dans l’environnement. Également à l’ordre du jour, des ateliers de sensibilisation à la génétique, comme ceux qui ont déjà été menés au MAC/VAL, le musée d’art moderne de Vitry, dans la banlieue parisienne.

Interrogé sur la signification politique de cet engagement, le biologiste réfléchit, hésite, et énonce clairement : ” C’est forcément une démarche politique puisque nous nous déclarons libres de détourner la technologie par rapport à l’usage que prévoient les règlements. Nous sommes des gens curieux, nous voulons explorer la nature, nous avons des outils à notre disposition, il n’y a pas de raison de s’en priver. Et nous sommes là pour réclamer une liberté par rapport aux informations génétiques, pour qu’elles ne soient pas la propriété d’entreprises privées ou de l’État.
D’ici 10 ou 15 ans nous aurons peut-être notre génome encodé sur notre carte Vitale. Ces informations peuvent être dangereuses à partir du moment où elles sont complètes et qu’elles nous sont propres. Il faut démystifier la génétique “.

Et de conclure :

La société du XXIe siècle va être envahie par les biotechnologies, il semble évident de former les gens à ce qui arrive. L’éducation à la science et à la technique est un véritable contre-pouvoir. Le DIYBio, c’est un peu la science au peuple.

Dont acte.


Illustrations sous licences Creative Commons par Lynn, Anua22a et Kevin Dooley

]]>
http://owni.fr/2012/03/26/bacteries-du-futur-33/feed/ 4
Bactéries du futur [2/3] http://owni.fr/2012/03/23/bacteries-du-futur-partie-2/ http://owni.fr/2012/03/23/bacteries-du-futur-partie-2/#comments Fri, 23 Mar 2012 16:45:24 +0000 Marion Wagner http://owni.fr/?p=103012

[Suite de notre enquête sur la biologie de synthèse. Retrouvez ici la première partie]


C’est un de ces autres mondes qu’explore la start-up Global Bioenergies, installée au sein du Génopole, le premier complexe de recherche en génétique français, à Evry, au sud de Paris.

Biologie industrielle

Ici la biologie de synthèse est appliquée, on l’appelle biologie industrielle.

Marc Delcourt, co-fondateur, avec Philippe Marlière, de la jeune entreprise, est assis à son bureau.

Bactéries du futur [1/3]

Bactéries du futur [1/3]

Dans leurs éprouvettes, des chercheurs préparent la biologie et la génétique de demain. Des "biologistes-ingénieurs" qui ...

Après la porte d’entrée, posée sur une table, une statuette translucide rappelle l’entrée en bourse récente de Global Bioenergies. “Un succès”. La start-up a pu lever des fonds pour financer sa recherche, tournée vers “la création de procédés industriels qui visent à convertir des ressources végétales en production énergétique”. C’est-à-dire produire à partir du sucre, par voie biologique, une des plus grandes molécules de la pétrochimie, l’isobutène. Extraite du pétrole elle est utilisée pour faire du carburant, des plastiques, des textiles, des pneus…


“A l’heure actuelle aucun micro-organisme ne produit naturellement cette molécule, c’est notre défi. Nous avons crée de toutes pièces une voie métabolique qui permet de convertir le sucre en isobutène lorsqu’elle est implantée dans des micro-organismes. C’est une des façons de faire de la biologie de synthèse. Nous n’avons pas crée une bactérie entière mais une voie métabolique qui a une action et une utilité industrielle.”

Dans le laboratoire distribué par le couloir, Macha Anissimova, biochimiste en blouse blanche, fait la démonstration. Elle ouvre un congélateur, attrape un tube de plastique haut de deux centimètres. ” Il contient plusieurs milliers d’exemplaires d’un même gène, et cela ne pèse que quelques nanogrammes. On les solubilise en les mélangeant dans de l’eau, on peut alors les introduire dans un micro-organisme dont on a rendu la membrane perméable. Et pour faire proliférer les micro-organismes on les fait fermenter au chaud, les bactéries poussent entre 30 et 37°. On fait ça tous les jours.”

Après les agitateurs, qui mélangent mécaniquement, à rythme constant et par dizaines les tubes à essai, le fermenteur. “Là nous sommes à la frontière entre recherche et développement”. A l’intérieur de la cuve en verre d’un litre, les bactéries évoluent en milieu nutritif, une solution sucrée. Le processus biologique à l’œuvre reste absolument invisible à l’œil nu : cinq grammes de ces micro-organismes devraient permettre de produire 30 grammes d’isobutène, transformables en autant d’essence.

La chercheuse ajoute :

En général, on a les premiers indices que les manipulations fonctionnent au bout d’un an. Mais c’est un organisme vivant, on n’est jamais à l’abri des surprises.

Elle a assisté à la création de Global Bioénergies et glisse dans un sourire “on est partis de rien, maintenant c’est une société cotée en bourse, c’est un rêve scientifique”.

Brevetabilité

L’entreprise emploie une vingtaine de chercheurs, la moyenne d’âge est jeune, et l’avenir plein de promesse.

Le PDG reprend : “Le procédé marche en laboratoire et à faible niveau. Nous travaillons à l’augmentation de son rendement. L’idée est de créer une usine pilote puis des usines de taille industrielle. Nous aimerions aussi répliquer ce succès à d’autres molécules de l’industrie pétrolière.

L’idée est de pouvoir convertir des ressources agricoles, le sucre, l’amidon de canne et de betterave, de maïs, de blé, de seigle, de riz puis les déchets agricoles, les déchets forestiers, et de nouvelles plantes qui sont au centre de cette nouvelle agriculture à vocation énergétique qui se met en place”.

Un œil tourné vers la boîte de réception de sa messagerie électronique il ajoute : “Les premiers tests à l’échelle industrielle devraient être menés avant 2014. Nous n’allons pas nous limiter à la France, nous considérons que notre marché est mondial. Nos principaux concurrents sont aux États-Unis. Ils ont beaucoup de moyens et il y a une course pour déposer les brevets”.

Mais brevets, progrès de la technique et de la science, et découvertes d’autres mondes possibles ne convainquent pas tout le monde, loin de là. En s’emparant du vivant, qu’elle entend améliorer, la biologie de synthèse dérange. Quid d’éventuelles disséminations, qui a la charge de ces constructions chimériques, à qui appartiennent-elles ?

Revient en tête la session de questions-réponses ouverte à la fin de l’audition organisée à l’Assemblée nationale.

Thomas Heams, jeune chercheur et enseignant en génomique fonctionnelle, redingote gris pâle et lunettes larges à monture noire avait inauguré :

Je pose la question aux industriels, sans diabolisation aucune, évidemment : comment vous intéressez-vous à la question de la privatisation de l’effet de certains gènes dans vos constructions de synthèse ?

Le jeune PDG de Global Bioenegies, Marc Delcourt, avait répondu sans ambages : ” Les brevets qui sont déposés ne revendiquent pas le gène lui-même, mais son utilisation dans un certain cadre, donc on ne prive personne d’en faire autre chose. La question de savoir s’il est légitime de réserver un monopole temporaire -de 20 ans, ce qui est un temps très court au niveau industriel- pour permettre l’éclosion de ces innovations me semble assez peu adaptée. Dans notre cas il y a une construction technologique extrêmement aboutie et une innovation qui rentre très clairement dans les canons de la brevetabilité”.

graines de riz


Michel Vivant, professeur de droit à Sciences-Po, où il dirige la spécialité propriété intellectuelle du master de droit économique confirme, un peu gêné : “Dans le cas de la biologie de synthèse, puisqu’on bidouille dans une séquence, le critère de l’invention est respecté. Techniquement, il est possible de la breveter”.

Il précise :

“un brevet c’est donnant-donnant, l’inventeur reçoit un monopole économique qui lui assure un retour sur investissement en contrepartie d’une invention pour la société.”

L’invention, pour être brevetable, doit remplir un certain nombre de conditions : la première, être une invention (sic), et non une découverte. La découverte d’un gène à lui seul n’est donc pas brevetable. Elle doit aussi être nouvelle, susceptible d’application industrielle et non contraire à l’ordre public. Un génome de synthèse est en fait un cas d’école, parfaite illustration d’une invention brevetable.

Le juriste ajoute “Le droit ne brevète pas sur la base d’un jugement de valeur, finalement c’est une question de citoyen, et pas spécialement de juriste. La question devient beaucoup plus politique, mais au vrai sens du terme : que souhaite-t-on ? Est-ce que l’on veut qu’il y ait une constitution de propriété sur de telles inventions?”.


Retrouvez la dernière partie de cet article.


Illustrations sous licences creative commons par IRRI-images, Zhouxuan, Danmachold

]]>
http://owni.fr/2012/03/23/bacteries-du-futur-partie-2/feed/ 7
Bactéries du futur [1/3] http://owni.fr/2012/03/21/bacteries-du-futur-partie-1/ http://owni.fr/2012/03/21/bacteries-du-futur-partie-1/#comments Wed, 21 Mar 2012 10:57:23 +0000 Marion Wagner http://owni.fr/?p=102645

A l’heure actuelle la demande en énergie croît plus vite que l’offre. Selon l’Agence internationale de l’énergie, à l’horizon 2030 les besoins de la planète seront difficiles à satisfaire, tous types d’énergies confondus. Il faudra beaucoup de créativité pour satisfaire la demande.

Vincent Schachter, directeur de la recherche et du développement pour les énergies nouvelles à Total commence son exposé sur la biologie de synthèse. “C’est important de préciser dans quel cadre nous travaillons”. Ses chercheurs redessinent le vivant. Ils s’échinent à mettre au point des organismes microscopiques, des bactéries, capables de produire de l’énergie.

En combinant ingénierie, chimie, informatique et biologie moléculaire, les scientifiques recréent la vie.

Ambition démiurgique

Aucune avancée scientifique n’a incarné tant de promesses : détourner des bactéries en usines biologiques capables de produire des thérapeutiques contre le cancer, des biocarburants ou des molécules capables de dégrader des substances toxiques.

Dans la salle Lamartine de l’Assemblée nationale ce 15 février, le parterre de spécialistes invités par l’Office parlementaire d’évaluation des choix scientifique et techniques (OPECST) est silencieux. L’audition publique intitulée Les enjeux de la biologie de synthèse s’attaque à cette discipline jeune, enjeu déjà stratégique. Geneviève Fioraso, députée de l’Isère, qui l’a organisée, confesse : “J’ai des collègues parlementaires à l’Office qui sont biologistes. Ils me disent qu’ils sont parfois dépassés par ce qui est présenté. Ce sont des questions très complexes d’un point de vue scientifique”.

L’Office, dont la mission est “d’informer le Parlement des conséquences des choix de caractère scientifique et technologique afin, notamment, d’éclairer ses décisions” est composé de parlementaires, députés et sénateurs. Dix-huit élus de chaque assemblée qui représentent proportionnellement l’équilibre politique du Parlement. Assistés d’un conseil scientifique ad hoc ils sont saisis des sujets scientifiques contemporains : la sûreté nucléaire en France, les effets sur la santé des perturbateurs endocriniens, les leçons à tirer de l’éruption du volcan Eyjafjöll…

Marc Delcourt, le PDG de la start-up Global Bioenergies, basée à Evry, prend la parole :

La biologie de synthèse, c’est créer des objets biologiques. Nous nous attachons à transformer le métabolisme de bactéries pour leur faire produire à partir de sucres une molécule jusqu’à maintenant uniquement issue du pétrole, et dont les applications industrielles sont énormes.

Rencontré quelques jours plus tard, Philippe Marlière, le cofondateur de l’entreprise, “s’excuse”. Il donne, lui, une définition “assez philosophique” de la biologie de synthèse : ” Pour moi c’est la discipline qui vise à faire des espèces biologiques, ou tout objet biologique, que la nature n’aurait pas pu faire. Ce n’est pas ‘qu’elle n’a pas fait’, c’est ‘qu’elle n’aurait pas pu faire. Il faut que ce soit notre gamberge qui change ce qui se passe dans le vivant”.

Ce bio-chimiste, formé à l’École Normale Supérieure, assume sans fard une ambition de démiurge, il s’agit de créer la vie de manière synthétique pour supplanter la nature. Il ajoute :

Je ne suis pas naturaliste, je ne fais pas partie des gens qui pensent que la nature est harmonieuse et bonne. Au contraire, la biologie de synthèse pose la nature comme imparfaite et propose de l’améliorer .

Aussi provoquant que cela puisse paraître c’est l’objectif affiché et en partie atteint par la centaine de chercheurs qui s’adonne à la discipline depuis 10 ans en France. Il reprend : “Aussi vaste que soit la diversité des gènes à la surface de la terre, les industriels se sont déjà persuadés que la biodiversité naturelle ne suffira pas à procurer l’ensemble des procédés dont ils auront besoin pour produire de manière plus efficace des médicaments ou des biocarburants. Il va falloir que nous nous retroussions les manches et que nous nous occupions de créer de la bio-diversité radicalement nouvelle, nous-mêmes.”

Biologiste-ingénieur

L’évolution sur terre depuis 3 milliard et demi d’années telle que décrite par Darwin est strictement contingente. La sélection naturelle, écrit le prix Nobel de médecine François Jacob dans Le jeu des possibles “opère à la manière d’un bricoleur qui ne sait pas encore ce qu’il va produire, mais récupère tout ce qui lui tombe sous la main, les objets les plus hétéroclites, bouts de ficelle, morceaux de bois, vieux cartons pouvant éventuellement lui fournir des matériaux […] D’une vieille roue de voiture il fait un ventilateur ; d’une table cassée un parasol. Ce genre d’opération ne diffère guère de ce qu’accomplit l’évolution quand elle produit une aile à partir d’une patte, ou un morceau d’oreille avec un fragment de mâchoire”.

Le hasard de l’évolution naturelle, combiné avec la nécessité de l’adaptation a sculpté un monde “qui n’est qu’un parmi de nombreux possibles. Sa structure actuelle résulte de l’histoire de la terre. Il aurait très bien pu être différent. Il aurait même pu ne pas exister du tout”. Philippe Marlière ajoute, laconique : “A posteriori on a toujours l’impression que les choses n’auraient pas pu être autrement, mais c’est faux, le monde aurait très bien pu exister sans Beethoven”.

Cliquer ici pour voir la vidéo.

Comprendre que l’évolution n’a ni but, ni projet. Et la science est sur le point de pouvoir mettre un terme au bricolage inopérant de l’évolution. Le biologiste, ici, est aussi ingénieur. A partir d’un cahier des charges il définit la structure d’un organisme pour lui faire produire la molécule dont il a besoin. Si la biologie de synthèse en est à ses balbutiements, elle est aussi une révolution culturelle.

Il s’agit désormais de créer de nouvelles espèces dont l’existence même est tournée vers les besoins de l’humanité. “La limite à ne pas toucher pour moi c’est la nature humaine. Je suis un opposant acharné au transhumanisme“, met tout de suite en garde le généticien.

A, T, G, C

Depuis que Francis Crick, James Watson et Rosalind Franklin ont identifié l’existence de l’ADN, l’acide désoxyribonucléique, en 1953, une succession de découvertes ont permis de modifier cet l’alphabet du vivant.

On sait désormais lire, répliquer, mais surtout créer un génome et ses gènes, soit en remplaçant certaines de ses parties, soit en le synthétisant entièrement d’après un modèle informatique. Les gènes, quatre bases azotées, A, T, G et C qui se succèdent le long de chacun des deux brins d’ADN pour former la fameuse double hélice, illustre représentation du vivant. Quatre molécules chimiques qui codent la vie : A, pour adénine, T pour thymine, G pour guanine, et C pour cytosine. Leur agencement détermine l’activité du gène, la ou les protéines pour lesquelles il code, qu’il crée. Les protéines, ensuite, déterminent l’action des cellules au sein des organismes vivants : produire des cheveux blonds, des globules blancs, ou des bio-carburants.

On peut à l’heure actuelle, en quelques clics, acheter sur Internet une base azotée pour 30 cents. Un gène de taille moyenne, chez la bactérie, coûte entre 300 et 500 €, il est livré aux laboratoires dans de petits tubes en plastique translucide. Là il est intégré à un génome qui va générer de nouvelles protéines, en adéquation avec les besoins de l’industrie et de l’environnement.

L’être humain est devenu ingénieur du vivant, il peut transformer de simples êtres unicellulaires, levures ou bactéries en de petites usines qu’il contrôle. C’est le bio-entrepreneur américain Craig Venter qui sort la discipline des laboratoires en annonçant en juin 2010 avoir crée Mycoplasma mycoides, une bactérie totalement artificielle “fabriquée à partir de quatre bouteilles de produits chimiques dans un synthétiseur chimique, d’après des informations stockées dans un ordinateur”.

Si la création a été saluée par ses pairs et les médias, certains s’attachent toutefois à souligner que sa Mycoplasma mycoides n’a pas été crée ex nihilo, puisque le génome modifié a été inséré dans l’enveloppe d’une bactérie naturelle. Mais la manipulation est une grande première.

Tour de Babel génétique

Philippe Marlière a posé devant lui un petit cahier, format A5, où après avoir laissé dériver son regard il prend quelques notes. “Il y a longtemps qu’on essaye de changer le vivant en profondeur. Moi c’est l’aspect chimique du truc qui m’intéresse : où faut-il aller piocher dans la table de Mandeleiev pour faire des organismes vivants ? Jusqu’où sont-ils déformables ? Jusqu’à quel point peut-on les lancer dans des mondes parallèles sur terre ?”. Il jette un coup d’œil à son Schweppes :

Prenez l’exemple de l’eau lourde. C’est une molécule d’eau qui se comporte pratiquement comme de l’eau, et on peut forcer des organismes vivants à y vivre et évoluer. Or il n’y a d’eau lourde nulle part dans l’univers, il n’y a que les humains qui savent la concentrer. On peut créer un microcosme complètement artificiel et être sûr que l’évolution qui a lieu là-dedans n’a pas eu lieu dans l’univers. C’est l’évolution dans des conditions qui n’auraient pas pu se dérouler sur terre, c’est intéressant. La biologie de synthèse est une forme radicale d’alter-mondialisme, elle consiste à dire que d’autres vies sont vraiment possibles, en les changeant de fond en comble.

Ce n’est pas une provocation feinte, ce n’est même pas une provocation. L’homme a à cœur d’être bien compris. Il s’agit de venir à bout de l’évolution darwinienne, pathétiquement coincée à un stade qui n’assure plus les besoins en énergie des 10 milliards d’humains à venir. Il faut pour ça réécrire la vie, son code. Innover dans l’alphabet de quatre lettres, A, C, G et T. Créer une nouvelle biodiversité. Condition sine qua non : ces mondes, le nôtre, le naturel, et le nouveau, l’artificiel, devraient cohabiter sans pouvoir jamais échanger d’informations. Il appelle ça la tour de Babel génétique, où les croisements entre espèces seraient impossibles.

“Les écologistes exagèrent souvent, mais ils mettent en garde contre les risques de dissémination génétique et ils ont raison. Les croisements entre espèces vont très loin. J’ai lu récemment que le chat et le serval sont inter-féconds”. Il estime de la main la hauteur du serval, un félin tacheté, proche du guépard, qui vit en Afrique. Un mètre de haut environ.

Par ailleurs il fallait être superstitieux pour imaginer que le pollen des OGM n’allait pas se disséminer. Le pollen sert à la dissémination génétique ! D’où notre projet, il s’agit de faire apparaître des lignées vivantes pour lesquelles la probabilité de transmettre de l’information génétique est nulle.

Le concept tient en une phrase :

“The farther, the safer : plus la vie artificielle est éloignée de celle que nous connaissons, plus les risques d’échanges génétiques entre espèces diminuent. C’est là qu’il y a le plus de brevets et d’hégémonie technologique à prendre.”

Il s’agit de modifier notre alphabet de 4 lettres, A, C, G et T, pour créer un nouvel ADN, le XNA, clé de la “xénobiologie”:

X pour Xeno, étranger, et biologie. Le sens de cet alphabet ne serait pas lisible par les organismes vivants, c’est ça le monde qu’on veut faire. C’est comme lancer un Spoutnik, c’est difficile. Mais comme disait Kennedy, ‘On ne va pas sur la lune parce que c’est facile, on y va parce que c’est difficile.’

Cliquer ici pour voir la vidéo.


Retrouvez la suite de cet article en deux parties ici et .


Cette enquête sera publiée en trois parties tout au long de la semaine.
Illustrations par Daniel*1977 (ccbyncssa)/Flickr

]]>
http://owni.fr/2012/03/21/bacteries-du-futur-partie-1/feed/ 8
Un air de particules http://owni.fr/2012/02/28/un-air-de-particules/ http://owni.fr/2012/02/28/un-air-de-particules/#comments Tue, 28 Feb 2012 07:38:51 +0000 Dorothée Descamps http://owni.fr/?p=99658

La semaine dernière, le 24 février, deux décrets visant à lutter contre la pollution atmosphérique sont rentrés en vigueur, pour permettre la mise en place des Zones d’actions prioritaires pour l’air (Zapa). L’objectif est de faire diminuer le taux de polluants émis par les pots d’échappement dans et autour des agglomérations les plus exposées.

C’est-à-dire : Paris, Saint-Denis, Bordeaux, Clermont-Ferrand, Lyon, Grenoble, Nice et Aix-en-Provence. À terme, dans ces huit villes, l’enjeu est de restreindre voire d’interdire, à certaines conditions, la circulation des véhicules les plus émetteurs de particules ou d’oxydes d’azote. Cette mesure ne concernera pas les véhicules d’intérêt général, ceux relevant du ministère de la défense ou encore ceux portant une carte de stationnement pour personnes handicapées.

Pour tous les autres, l’un des textes précise les sanctions prévues en cas d’infraction, 135 € pour les poids lourds, les bus et autocars, 68 € pour les véhicules légers. Mais attention, ces textes ne seront pas d’application immédiate. Pour leur mise en œuvre systématique, un troisième décret est prévu dont la date de sortie a été repoussée au premier semestre 2013.

Le projet Zapa est un axe phare du plan Particules, paru en 2007. Un programme de lutte contre la pollution de l’air par les particules, et ses conséquences sur la santé, en droite lignée des recommandations du Grenelle de l’environnement. Un bilan à mi parcours de ce plan, présenté le 7 décembre dernier par le ministère de l’Écologie, permettait de mesurer l’étendu du chantier juridique qui restait à réaliser.

Pourtant, la réalité de la pollution observée inviterait plutôt à accélérer ces processus. Le 6 février, Airparif signalait le dépassement d’un premier seuil d’alerte aux particules fines en Île-de-France. La vague de froid qui sévissait a entraîné sur l‘ensemble du territoire nombre de rapports sur une concentration anormalement élevée de ces polluants dans l’air. En cause, des couches d’air non brassées et un anticyclone persistant.

Ces particules fines sont dénommées PM2,5, en raison de leur diamètre inférieur à 2,5 micromètres. Une taille infime qui leur permet, en cas d’inhalation, de pénétrer jusqu’au niveau des alvéoles pulmonaires. Un risque pour la santé dénoncé par l’Organisation mondiale de la santé (OMS), qui estime que 1,3 millions de décès dans le monde seraient imputables à la pollution de l’air en zone urbaine.

Le plan Particules, pour s’aligner avec les directives européennes, préconise d’atteindre un taux de PM2,5 de 15 microgrammes par mètres cube d’air (μg/m3). À partir de 2015, la nouvelle valeur cible sera de 10μg/m3. L’objectif est de correspondre aux conseils pressants de l’OMS en termes de lutte contre la pollution de l’air :

Pour Patrice Halimi, Secrétaire général de l’Association santé environnement france (ASEF), descendre sous la barre des 10μg/m3 sera difficilement réalisable. Et pourtant :

Les microparticules émises par les véhicules diesel, sont entre autre reconnues comme cancérigènes, irritantes et allergènes. En 2007, l’étude ISAAC réalisée dans six villes françaises sur près de 8 000 enfants, a démontré l’effet de la pollution atmosphérique sur le développement de l’asthme et des allergies. Les enfants résidant depuis huit ans dans des zones à pollutions élevées ont 3 fois plus d’eczéma, 1,5 fois plus d’asthme et presque 2 fois plus d’asthme à l’effort !

Pour déterminer l’influence au long terme de ces particules fines, l’Institut de veille sanitaire (InVS), a coordonné de juillet 2008 à mars 2011 le projet Aphekom. Ce dernier a permis d’établir les impacts sanitaires de la pollution atmosphérique dans 12 pays européens.

Nombre moyen de mois de vie gagnés si les 25 villes de villes à l’étude baissaient le taux de concentration jusqu’à atteindre le taux de 10μg/m3.

Les chiffres de l’Agence nationale de sécurité sanitaire(Anes) montrent que, pour l’année 2002, les particules fines auraient causé 600 à 1 100 décès par cancer du poumon et 3 000 à 5 000 décès par maladies cardiorespiratoires. Des chiffres alarmants qui pourraient donc être considérablement réduits même si à l’heure actuelle aucun seuil n’a été déterminé en dessous duquel les PM2,5 n’auraient aucun impact sur la santé. En cas de pics de concentration, comme ce fut le cas lors de la période de grand froid, les incidences sur la santé s’observent rapidement :

En moyenne sur une année, on observe que les jours où les concentrations de particules fines sont élevées, les hospitalisations augmentent, de même que les taux d’infarctus ou d’AVC. Ainsi, une hausse de 10 µg/m3 de la dose journalière entraîne en moyenne deux fois plus d’hospitalisations d’enfants et de personnes âgées.

Une synthèse sur l’estimation des hospitalisations en urgence en temps de pollution atmosphérique corrobore les propos de Patrice Halimi. L’un de ces co-auteurs, Sabine Host de l’Observatoire régional de santé d’Île-de-France souligne toutefois que de nombreuses dispositions sont prises pour réduire le taux de PM2,5 – en théorie.

Les sources à l’origine des particules fines sont multiples. L’effort est surtout mis sur des mesures de restrictions au niveau des sources fixes comme les usines, les chaufferies… Il y a aussi des plans de déplacements urbains qui vont réguler l’utilisation de la voiture en ville ou encore le projet Zapa mais aussi une nouvelle régulation sur la biomasse et l’interdiction des déchets verts.


L’étude des sources aide à trouver des situations répondant à des conditions spécifiques. D’après le Centre interprofessionnel technique d’études de la pollution atmosphérique (Citepa), en 2009, les émissions à l’origine des PM2,5  en France proviendraient de ces différentes sources :

Ces 35% du secteur résidentiel/tertiaire souligne l’importance de sources de pollution qui restent malgré tout peu régulées. Elles concernent notamment les particules fines émises par le chauffage au bois des habitations. Si des mesures de restrictions sont difficiles à mettre en place, des initiatives voient le jour comme le label Flamme Verte qui favorise l’installation de dispositifs de chauffage moins polluants.

Cette multitude de sources, dont les proportions varient selon le positionnement géographique, et l’effet de dispersion des particules fines dans l’atmosphère mettent en évidence une autre conséquence : la pollution ne s’arrête pas à la porte de la maison.

Les transferts entre air extérieur et air intérieur existent. Il est impossible de déterminer le taux de particules fines dans une habitation ou un bureau car les situations diffèrent d’un endroit à un autre. Un logement mal isolé va permettre plus d’échanges, et inversement. Mais paradoxalement cela veut dire qu’un habitat qui va avoir peu de transferts peut aussi concentrer les polluants à l’intérieur.

Si la pollution extérieure impacte la pollution intérieure, il est indéniable que, outre les résidus de combustion, les produits ménagers, le bricolage, le tabac le cas échéant, font également partie des agents dangereux. Les études sur les éléments précis qui composent ces poussières, d’origine intérieure ou extérieure, font cruellement défaut.  Le manque de données précises crée un flou qui se répercute sur l’état des connaissances portées aux consommateurs. Une situation que dénonce Patrice Halimi :

Ce qu’il faut prendre en compte, c’est que nous respirons au quotidien un air pollué ! Il est donc primordial d’informer le grand public.

Le bilan à mi parcours du plan Particules a montré que l’essentiel de la communication aux particuliers réside en la diffusion de plaquettes. La sensibilisation sur les émissions polluantes dues au système de chauffage est quant à elle confiée aux “professionnels de la maintenance”.

Si la lutte contre la pollution aux particules fines passent naturellement par l’effort de réduction des émissions, il n’est pas fait mention des possibilités de purification de l’air. Car des solutions comme une aération pouvant filtrer le PM2,5 sont envisageables mais restent coûteuses et nécessitent un entretien régulier.


Photo par Wa So/Flickr (CC-byncnd)

]]>
http://owni.fr/2012/02/28/un-air-de-particules/feed/ 13
L’école des candidats http://owni.fr/2012/02/23/l%e2%80%99ecole-des-candidats/ http://owni.fr/2012/02/23/l%e2%80%99ecole-des-candidats/#comments Thu, 23 Feb 2012 17:41:42 +0000 Jean-Paul Jouary http://owni.fr/?p=99545

Citation : Kant : « Il faut procéder socratiquement dans l’éducation »

La question de l’école monte en puissance dans la campagne des candidats à l’élection présidentielle. Dans certains cas, elle est présentée comme un coût qui demeure trop élevé ; dans d’autres comme un véritable investissement social et humain qu’il convient de remettre à niveau. Dans certains cas on lui reproche de ne pas orienter assez tôt des enfants dont on sait qu’ils ne seront jamais doués pour des études longues ; dans d’autres cas on lui reproche d’avoir abandonné le combat pour donner à chaque enfant la possibilité d’épanouir son potentiel culturel et d’accentuer toutes les inégalités.

Dans certains cas on se soucie de former pour la plus grande partie des enfants des capacités à entrer dans le monde du travail tel qu’il est, à côté de filières d’excellence ; dans d’autres cas on se soucie de développer pour tous les capacités d’apprentissage et de réflexion dont chacun aura besoin pour participer aux évolutions des connaissances et des techniques, mais aussi dans sa vie citoyenne et personnelle. Dans certains cas l’école est un domaine qui passe après la sécurité, l’accroissement des marges des entreprises, le contrôle des étrangers et des chômeurs ; dans d’autres cas elle est présentée comme la priorité humaine et sociale devant toutes les autres questions. Chacun a tout loisir de situer les divers candidats dans ces alternatives.

Mais derrière ces clivages il se pourrait que l’on trouve aussi plusieurs manières de concevoir le statut même de l’éducation. Ainsi les dernières années ont-elles vu se multiplier, à travers des réductions de moyens humains, une série de mesures qui affectent les contenus éducatifs selon une logique extrêmement cohérente. Sous la présidence précédente, la dissertation littéraire avait été marginalisée, puis le statut même de l’enseignement philosophique fut violemment attaqué et ne dut sa survie qu’à une riposte massive des enseignants concernés. C’est l’histoire qui ensuite subit les coups les plus durs, avec des programmes absurdes et la suppression pure et simple en classe de terminale scientifique. Ce sont les programmes économiques et sociaux qui furent ensuite les cibles explicitement idéologiques du MEDEF et du gouvernement.

Les langues dites « rares » (le Chinois par exemple ?), les langues dites « mortes », la dimension culturelle des langues vivantes, les options artistiques, bref, tout ce qui de près ou de loin est au cœur de la réflexion, de l’esprit critique, de l’épanouissement personnel, de la créativité, est ouvertement et activement attaqué, les horaires réduits, les postes supprimés, le travail en demi classe annulé. Comme le Président l’avait ironiquement déclaré, on peut vivre sans avoir lu La princesse de Clèves, et ceux qui veulent faire du latin ou du grec peuvent se payer des cours particuliers.

Il y aurait ainsi un objectif assigné à l’école : former des capacités à exécuter des gestes et opérations programmés, et au mieux à développer des techniques déjà existantes. Pour cela, point n’est besoin d’enseignants bien formés, point n’est besoin d’effectifs permettant le dialogue, et dans bien des cas des logiciels et questionnaires d’évaluation peuvent faire l’affaire. Pour le reste, c’est-à-dire pour former les futures « élites » dirigeantes en tous domaines, la mise en concurrence des établissements, les désectorisations, le développement du privé, l’investissement dans quelques grandes écoles, deviendront des modèles d’apprentissage culturel de haut niveau. Et cette toute cette logique qui permet les suppressions de postes et de moyens matériels et humains, tandis que c’est une tout autre logique qui justifie la progression quantitative et qualitative de ces moyens, non pas malgré la crise, mais en raison de celle-ci, et pour en sortir. Et c’est derrière cette alternative que l’on trouve une question philosophique essentielle.

L’école doit-elle offrir des contenus à apprendre, c’est-à-dire à prendre tels qu’ils sont ? Ou bien l’école doit-elle, à travers l’enseignement de ces contenus, inviter à apprendre en apprenant à apprendre et à comprendre, ce qui suppose que chaque élève développe en lui une culture critique et active qui l’associe en profondeur aux événements pédagogiques ? Certes, toute éducation est bien forcée de lier ces deux dimensions, mais qui ne voit que la seconde devient une exigence croissante, à mesure que s’accroît la vitesse du mouvement des sociétés ? Cela ne fait que rendre plus évidente une idée qu’à la fin du XVIIIème siècle le philosophe Emmanuel Kant avait déjà bien cernée. S’il remarquait que chaque génération a la tâche d’éduquer la suivante, il ajoutait aussitôt :

Il faut procéder socratiquement dans l’éducation.

Socratiquement, c’est-à-dire en ne se contentant pas de montrer un chemin et en vérifiant que l’élève le prend bien, mais en l’associant à la découverte du bon chemin, par la mise en contradiction de plusieurs chemins possibles, par l’intériorisation non pas de réponses toutes faites, mais de réponses venant satisfaire l’embarras de questions déjà intériorisées. L’éducation solide passe ainsi par l’erreur, l’étonnement, la rectification, le plaisir de découvrir enfin une réponse satisfaisante. Par la remise en questions de ce qui semble être une réponse.

Vingt cinq siècles après le dialogue socratique, Gaston Bachelard résumait ainsi cette essence de la culture :

Deux hommes, s’ils veulent s’entendre vraiment, ont dû d’abord se contredire. La vérité est fille de la discussion.

C’est ce que détruit l’obsession actuelle de l’ “évaluation” dès l’école primaire. Mais que mesure-t-on ? Par rapport à quoi prétend-on évaluer ? Selon quelles finalités ? Le physicien théoricien Jean-Marc Lévy-Leblond a bien raison de souligner à propos des sciences qu’on ne peut les enseigner vraiment sans accorder “autant d’importance à la compréhension du savoir qu’à sa production” ; la mathématicienne Stella Baruk a bien raison de souligner à propos de l’enseignement des mathématiques qu’il est le plus souvent vécu comme la “récitation d’un catéchisme formel et rituel”, une “langue inaccessible à l’entendement”, un ” savoir achevé” qui plonge les élèves dans un “vide conceptuel”. Cela signifie que les enseignements scientifiques aussi exigent une révolution qui les fasse pleinement contribuer à l’épanouissement critique et les associent enfin à des formes de plaisir intime. On cessera peut-être alors de déplorer rituellement la crise des vocations pour les études scientifiques.

Allons plus loin : en perpétuant cette forme positiviste d’apprentissage des matières scientifiques, et en l’érigeant en modèle d’enseignement de toutes les disciplines, on habitue insidieusement dès le plus jeune âge à considérer que les vérités sont toujours “déjà-là”, extérieures à la pensée critique comme à l’histoire humaine. Alors les Experts et Princes qui nous gouvernent peuvent venir dans les médias, bomber le torse en proclamant que leur politique est la seule possible, que le peuple ne la comprend pas, et que la “science” économique comme la “science” politique décident de ce qui doit être et de ce qui ne peut pas être. Même si les citoyens en rêvent. Cela donne une belle actualité à ce que le Nobel Ilya Prigogine et la philosophe Isabelle Stengers écrivaient il y a quelques années :

Il est devenu essentiel que science et démocratie inventent une nouvelle forme de dialogue.

Écoutons bien : chaque candidat veut une école en cohérence avec ce qu’il veut pour la société.

N.B : A lire, de Kant, les Réflexions sur l’éducation ; de Gaston Bachelard, La philosophie du non ; de Stella Baruk, L’âge du capitaine – de l’erreur en mathématiques ; de Jean-Marc Lévy-Leblond, par exemple, L’esprit de sel ; d’ Ilya Prigogine et Isabelle Stengers, par exemple, Entre le temps et l’éternité. Et, si j’ose, Enseigner la vérité ? que je publiais il y a quelques années.


Poster-Citation par Marion Boucharlat pour Owni ; illustration par Essence of a dream (CCbync) ; L’École d’Athènes par Raphaël [Public domain], via Wikimedia Commons

]]>
http://owni.fr/2012/02/23/l%e2%80%99ecole-des-candidats/feed/ 6
Nutella grand acropâte http://owni.fr/2012/02/02/nutella-lacropate/ http://owni.fr/2012/02/02/nutella-lacropate/#comments Thu, 02 Feb 2012 12:12:30 +0000 Claire Berthelemy http://owni.fr/?p=95200

Cette semaine, pour la chandeleur, le groupe italien Ferrero (1,06 milliards d’euros de chiffre d’affaires en France) soigne sa promo en organisant dans plusieurs villes de France des distributions de crêpes dégoulinantes de Nutella, son produit phare.

L’opération de com’ vient après des moments difficiles causés par quelques scientifiques revêches, dénonçant les risques que ferait peser sur la santé des enfants et des adolescents la consommation quasi addictive de Nutella. Début janvier, le groupe a réagi par un communiqué de presse tentant d’atténuer ces critiques. Selon Ferrero, si 38% des enfants en France mangent du Nutella, la grande majorité d’entre-eux ne dépasserait pas les cinq tartines par semaine.

Dommage

Pour rassurer les familles, Ferrero se fonde sur des données du Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc) ; elles-mêmes vieilles de onze ans. Elles ont été collectées en 1999 auprès d’un panel de 3 000 individus lors d’une étude sur les comportements alimentaires. Au Credoc, un porte-parole nous répond, étonné :

Nous ne faisons pas d’études ciblées sur un produit en particulier. Mais réalisons de grosses études sur le comportement des français.

Comprendre : aux acteurs de l’agro-alimentaire ensuite d’acheter les interprétations des résultats du Credoc qui les intéressent, et de présenter les chiffres à leur manière. Ce que le directeur de la communication de Ferrero, que nous avons contacté, ne dément pas. D’un point de vue nutritionnel, le problème n’étant pas les petits consommateurs mais les plus grands, un chercheur du Credoc qui préfère demeurer anonyme souligne :

Dommage que Ferrero n’ait pas communiqué davantage sur la consommation supérieure et le maximum de cette consommation supérieure [la tranche des enfants qui en mangent de grandes quantités, soit, en France, 13% des enfants qui en consomment]

Pour Béatrice de Reynal, nutritionniste, la dépendance au Nutella décrite par certains n’existe pas vraiment. Bien que, selon elle, il existe :

Des fans d’autant plus fans qu’ils ont été nourris avec [du Nutella] tôt dans l’enfance (…) Les saveurs de l’enfance sont imprimées durablement dans le cerveau comme étant les référents de ce qu’il y a de mieux ! Mais prétexter que les enfants consomment seulement une tartine par jour est un peu provocateur. Ils prétendent que la quantité recommandée sur 30 g de pain est 15 g de Nutella… Je vous mets au défi de trouver des adolescents qui ne mettent que 15 g de Nutella sur du pain.

Mets de l’huile

Or, pour cette population de gourmands, le Nutella fait courir des risques avérés sur la santé. Ceux-ci sont officiellement reconnus depuis mars 2010. Lorsque l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) a pris la décision de déconseiller la consommation d’huile de palme. Pour l’agence :

Les lipides ont des effets bénéfiques sur la santé à condition de diversifier les apports en graisses végétales et animales pour respecter l’équilibre des apports entre les différents acides gras. À l’exception de l’huile de palme (très riche en acide palmitique et présente dans de nombreux produits manufacturés), il est conseillé de consommer et de diversifier les huiles végétales (les huiles de colza et de noix sont les sources principales d’acide alpha-linolénique).

Et le Nutella c’est de l’huile de palme pure à 30%. Même si rien ne l’indique sur l’emballage, qui fait référence à une “huile végétale”. Le service consommateur de Ferrero nous l’a confirmé. Annonçant :

Entre 20 et 30% d’huile de palme et entre 20 et 30% de sucre. Mais vous donner la composition exacte trahirait le secret de fabrication.

Contre 13% de noisettes, 7,4% de cacao et 6,6% de lait. De quoi relativiser l’argument marketing sur les besoins nutritionnels des enfants. Et alors que les industriels de l’agro-alimentaire enlèvent un par un l’huile de palme de la composition de leurs produits, Ferrero explique, lui, qu’il ”est impossible de remplacer l’huile de palme, responsable de la texture du Nutella”. L’huile concernée est en effet quasi solide à température ambiante contrairement aux autres huiles. Le risque, désormais connu, est donc consubstantiel du produit.

Du côté des scientifiques, il n’y a plus de place pour le doute. Vincent Arondel, chargé de recherche et responsable de l’équipe Métabolisme des lipides de réserve au Laboratoire de biogénèse membranaire de Bordeaux explique :

La seule chose que l’on reproche à l’huile de palme est sa haute teneur en acide palmitique, un acide gras saturé avec 16 carbones, connu pour être un des facteurs qui augmente le mauvais cholesterol (LDL) dans le sang et donc les risques de maladies cardiovasculaires.

Ferrero soutient dans sa communication que les acides gras saturés se consomment aussi dans la viande (contenant, elle, des protéines indispensables à la croissance des enfants, contrairement au Nutella). Mais selon le chercheur l’huile de palme contient 40 à 45% d’acides gras saturés contre 25-30% dans la viande de boeuf.

Georges Ngando, chercheur à l’université de Bordeaux et actuellement au Centre spécialisé de recherche sur le palmier à huile du Cameroun renchérit :

Plusieurs études ont établi depuis longtemps le lien étroit existant entre une alimentation riche en acides gras saturés et la prévalence de taux sériques élevés de (“mauvais”) cholestérol LDL (Low Density Lipoprotein), ainsi que l’émergence des maladies cardio-vasculaires. De ce fait, les nutritionnistes, essentiellement en Europe et Amérique, encouragent la consommation des huiles riches en acides gras insaturés pour une alimentation saine et équilibrée, au détriment de l’huile de palme.

L’huile de palme est l’oléagineux le plus productif à l’hectare et , pour cette raison, la première huile au monde en volume de production.

Il y a quelques semaines, pendant que Nutella organisait des petits-déjeuners et goûters de Noël gratuits dans le centre de Paris, un rapport du WWF venait d’épingler Ferrero. Selon l’ONG, l’entreprise utilise trop d’huile de palme “non durable” dans ses produits.


Illustrations par Loguy pour Owni.fr

]]>
http://owni.fr/2012/02/02/nutella-lacropate/feed/ 74