Français

Ce test consiste en 10 textes (4 ici) à l’issue desquels vous sont posées une série d’environ 8 questions relatives à leur compréhension. Le jour “J” vous avez 30 minutes pour traiter les 10 textes ainsi que les questions associées.

Après vous être entraîné sur cet échantillon, vous pouvez vous entraîner en condition réelle via cette page!

Texte 1

Fatales à fortes doses pour tout être vivant, les radiations ionisantes peuvent, à doses faibles, guérir ou soulager des maladies du cancer, et elles ont permis la mise au point de méthodes d’investigation médicale aujourd’hui irremplaçables comme la radiographie aux rayons X. Depuis le début des années 60, on les emploie dans l’industrie pour les usages les plus divers, de la stérilisation des instruments chirurgicaux au traitement des matières plastiques. Sur les aliments, les irradiations produisent des phénomènes un peu analogues à certains effets de la cuisson. Le choc des photons casse les grosses molécules comme l’ADN, porteur du code génétique, empêchant toute multiplication des cellules et des micro-organismes. Les énergies utilisées sont beaucoup trop faibles pour induire une radioactivité artificielle par modification des noyaux atomiques, comme cela se passe dans les réacteurs nucléaires. Par ailleurs, la source des rayonnements ionisants n’est jamais en contact avec les denrées alimentaires, qui ne peuvent donc pas être contaminées. Cependant, tous les doutes ne semblent pas avoir été encore totalement levés et cette technique conserve un certain nombre d’adversaires.

La France est peut-être bien placée pour donner ses lettres de noblesse à l’ionisation: l’étude sur le camembert menée sur la demande d’une Union coopérative normande en est un bon exemple. Il faut savoir que toutes les opérations visant à éliminer du lait cru les microorganismes éventuellement pathogènes – par exemple par stérilisation – suppriment aussi la plupart des germes utiles à la fabrication du fromage. En traitant le camembert par ionisation, au bout de quinze jours d’affinage, on arrive à diviser par mille le nombre de germes indésirables. La flore utile, quant à elle, résiste mieux aux rayonnements, et, de toute façon, elle a eu le temps de libérer les enzymes nécessaires à l’affinage.

Voici une approche pragmatique que semblent avoir désormais adoptée la plupart des défenseurs de l’ionisation. Plus personne aujourd’hui ne parle de traitement miracle, mais plutôt d’une technique supplémentaire de conservation des aliments, moins agressive que les traitements chimiques ou thermiques. Elle ne les remplacera pas, mais viendra compléter certains traitements comme la pasteurisation, qui, souligne un responsable de l’OMS, fut d’ailleurs violemment combattue lors de son apparition, avec des arguments similaires à ceux des opposants actuels à l’ionisation.

Texte 2

Bien des experts, par exemple, suivant une tradition anglo-germanique, désignent sous le terme de culture(s) les façons d’être et les goûts, les comportements et les modes de vie qui singularisent les groupes sociaux et font leur génie particulier. Dans la tradition latine, au contraire, le même mot désigne plutôt ce qui est civilisation pour les Allemands : un ensemble de valeurs, généralisables et exportables, qui peuvent se communiquer d’un peuple à l’autre au nom de la raison universelle. Cette distinction en recoupe une autre, qu’on aurait tort de croire académique: assez lâchement défini comme tout ce qui se transmet socialement, c’est à l’opposé du naturel que se situe le culturel (…). Pour accroître encore les divers risques de quiproquo, les Européens se réfèrent selon les cas, plus ou moins explicitement, à trois conceptions du culturel dont la coexistence est malaisée. Ainsi faudrait-il distinguer :

– Un modèle patrimonial, ou qu’on pourrait nommer tel, parce qu’il assimile la culture à une richesse héréditaire. Composée de monuments et de documents qu’il importe de préserver, la culture constitue un patrimoine qui se reçoit et se lègue ; comme le suggère bien la métaphore, elle relève moins de l’être que de l’avoir. Quantifiable et mesurable, le domaine du culturel exige alors une politique qui en assure l’intégrité ; redoutant l’innovation, tant interne qu’étrangère, ce système refuse la dialectique comme facteur de changement.

– Un modèle biologique, impliquant que la culture fonctionne à l’instar d’un organisme. C’est de “vie culturelle” qu’on parle alors, et l’on admet qu’elle évolue ; endogènes ou exogènes, le système tolère des variations, dès lors qu’elles ne menacent pas sa santé. Plus souple, ou apparemment moins xénophobe, une telle conception achoppe pourtant sur les “seuils de tolérance”.

– Un modèle dialogique, illustré notamment par Edgar Morin (Penser l’Europe, 1987). Sous cet éclairage plus contrasté, notre culture se définit comme incessante confrontation de courants antagonistes : “Ce sont les interactions entre peuples, cultures, classes, Etats qui ont tissé une unité elle-même plurielle et contradictoire. “En elle-même, comme dans ses rapports avec le monde, la culture européenne met en oeuvre une dialectique, une volonté de dialogue, une auto négation radicale qui interdisent de la concevoir comme une réalité stable et fixe ; loin de la présenter comme une accumulation de valeurs, il faut alors la décrire comme un perpétuel “tourbillon”, ou comme un “chantier tumultueux”.

Il semble que le premier de ces modèles soit adopté de préférence par les fonctionnaires de la culture ; le deuxième, par une majorité de citoyens ; le troisième, par une minorité d’intellectuels. Grossière mais commode, telle est la tripartition que l’on suivra dans le cours de l’exposé ; moins pour simplifier les problèmes que pour suggérer leur gravité. Car, si les Européens d’aujourd’hui s’interrogent tant sur leur culture, s’ils prêtent tant d’attention à son histoire, s’ils diversifient à ce point les voies d’approche et les modèles explicatifs, c’est aussi parce qu’elle suscite de croissantes inquiétudes.

Texte 3

Le terme “extrémophile” a été introduit à la fin des années quatre-vingt pour désigner des bactéries très diverses, ayant en commun de vivre dans des conditions d’environnement qui sont normalement mortelles pour les êtres vivants : températures voisines du point d’ébullition de l’eau, sel en concentrations saturantes ou encore acidité équivalente à celle du suc gastrique. L’apparition de ce nouveau mot dans la littérature scientifique souligne l’attention nouvelle que portent les biologistes à ces organismes pourtant connus depuis longtemps. Ce regain d’intérêt découle de deux séries d’événements. Tout d’abord l’Américain Carl Woese et ses collaborateurs montraient, grâce aux techniques de la philogénie moléculaire, que Halobacterium salinarium et les thermoacidophiles appartenaient en fait à un même groupe de micro-organismes unicellulaires de type procaryote (cellule sans noyau), très éloigné sur le plan évolutif des bactéries traditionnelles. Woese et Fox donnèrent à ces micro-organismes le nom d’archæbactéries pour suggérer leur ancienneté. En effet, à côté des bactéries halophiles (amoureuses du sel) et des thermo-acidophiles (exigeant pour leur croissance à la fois une température très élevée et un pH très acide), les archæbactéries incluent des méthanogènes, bactéries anaérobies, productrices de méthane, qui consomment l’hydrogène et le dioxyde de carbone, deux gaz supposés abondants dans l’atmosphère de la terre primitive. D’après le concept d’archæbactéries, les halophiles et les thermo-acidophiles devraient donc être représentatifs des premiers êtres vivants apparus sur terre, d’où l’intérêt soudain de nombreux évolutionnistes pour ces micro-organismes du “troisième type”.

En particulier, le concept d’archæbactérie allait lancer deux micro-biologistes allemands, Wolfram Zillig et Karl Setter, à la recherche intensive de nouvelles souches thermophiles dans les sources chaudes sulfureuses d’Islande, d’Italie et du Japon. Ces recherches ont débouché sur la découverte de nouvelles archæbactéries qui battent les records de thermophilie. Certaines d’entre elles poussent jusqu’à 110°C sous pression dans les sources hydrothermiques sous-marines. (… )

Le deuxième facteur qui joue aujourd’hui en faveur des extrémophiles est le développement des biotechnologies, et en particulier l’intérêt de certains industriels pour les enzymes isolées à partir des bactéries ou archæbactéries thermophiles. Un moment clé de cette prise de conscience est intervenu en 1988 avec l’invention d’une nouvelle technique appelée polymerase chain reaction (PCR), qui permet d’amplifier à volonté n’importe quelle région de l’ADN grâce à une enzyme isolée à partir d’une bactérie thermophile, Thermus aquaticus. Aujourd’hui, cette enzyme extrémophile (la taq-polymérase) est présente dans tous les laboratoires de biologies, où elle est utilisée aussi bien pour la recherche fondamentale que pour le diagnostic médical.

Texte 4

Les normes sont des documents techniques de référence, dont l’élaboration obéit à des règles strictes, visant à faciliter les échanges de produits ou de services répétitifs en fournissant une base d’attente aux professionnels, aux consommateurs et aux pouvoirs publics.
Sujet familier en Allemagne et dans les pays anglo-saxons, la normalisation était, en France, jusqu’à une date récente, largement ignorée du grand public, et le monde de l’industrie, hormis quelques spécialistes, était à peine mieux informé. Cette méconnaissance tenait sans doute à la complexité et à l’austérité du sujet, à un certain ésotérisme longtemps entretenu par les normalisateurs, à une absence d’ouverture de beaucoup d’entreprises françaises sur le monde extérieur et, surtout, à la façon dont la normalisation s’est développée dans notre pays, à l’ombre de l’Etat.
Une nette évolution, cependant, s’est produite au cours des dix dernières années. Si la normalisation est encore loin de susciter, en France, auprès de tous ceux qu’elle concerne, l’intérêt que justifie son rôle grandissant, les évolutions profondes de l’environnement économique ont accru les attentes à son égard, l’obligeant elle-même à faire peau neuve.

Le développement des échanges entre entreprises, entre pays, entre grandes régions du globe s’est intensifié au cours des dernières années sous l’effet de multiples facteurs : accélération du progrès technique ; renforcement de la compétition ; tendance accrue des entreprises à se concentrer sur l’essentiel de leur métier, en sous-traitant ce qu’elles n’estiment pas nécessaire de faire elles-mêmes ; suppression ou abaissement des barrières techniques, juridiques et politiques, et amélioration des moyens de communication, provoquant une mondialisation progressive de l’économie ; émergence de nouveaux pays producteurs etc.
A ces profondes modifications du système productif se sont ajoutés de véritables bouleversements des circuits de distribution ; ainsi, en France, en moins d’une génération, ont été créées de grandes entreprises spécialisées dans la commercialisation de produits destinés au grand public.
Pour ces diverses raisons, les échanges ont progressé à un rythme bien supérieur à celui de la production et la physionomie des rapports entre acheteurs et vendeurs a changé. Il en est résulté un besoin accru de disposer d’un système de référence crédible permettant de mieux définir l’objet de l’échange.
Ce besoin est devenu d’autant plus vif que la notion de “qualité” a pris une ampleur nouvelle. Ce mot recouvre désormais l’ensemble des caractéristiques du produit (ou du service) qui doivent être prises en considération pour juger de son “aptitude à l’emploi”, cette expression étant prise elle-même dans son acception la plus large : par exemple, on doit tenir compte de préoccupations nouvelles, telles que celles qui touchent à l’environnement.
Parallèlement, on considère aujourd’hui que la qualité ne doit pas faire l’objet d’une vérification in fine, mais bien qu’elle se “construit”, étape par étape, tout au long du processus de fabrication, chacun des intervenants (fournisseurs, sous-traitants, prestataires) devant y contribuer.

Subscribe
Notify of
guest

2 Comments
Newest
Oldest Most Voted
Inline Feedbacks
View all comments