973 resultados para blue whales, bioacoustics, D calls, HARPs, detectors


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La forme canadienne-française du syndrome de Leigh (LSFC) est une maladie métabolique associée à une déficience en cytochrome oxydase (COX) et caractérisée par des crises d’acidose lactique, menant à une mort prématurée. Les mécanismes qui sous-tendent l’induction des crises restent inconnus et il n’existe aucune thérapie efficace pour les prévenir. Cette étude vise à caractériser l'effet de facteurs métaboliques périphériques potentiellement altérés chez les patients LSFC sur la mort de lignées cellulaires issues de ces patients et de témoins puis, à identifier des agents thérapeutiques pouvant la prévenir. Nous postulons que (i) ces facteurs métaboliques induiront une mort prématurée des cellules de patients et que (ii) les interventions susceptibles de la prévenir pallieront les conséquences de la déficience en COX, soit la diminution des taux d’adénosine triphosphate (ATP) et l’augmentation du stress oxydant, du nicotinamide adénine dinucléotide (NADH) et des lipides toxiques. Un criblage de 8 facteurs sanguins et 10 agents thérapeutiques a été réalisé. Les paramètres mesurés incluent la nécrose, l’apoptose, l’ATP et l’activité de la COX. Les fibroblastes LSFC sont plus susceptibles à la mort par nécrose (39±6%) induite par du palmitate plus lactate, un effet associé à des niveaux d’ATP diminués (53±8%). La mort cellulaire est réduite de moitié par l’ajout combiné d’agents ciblant le NADH, l’ATP et les lipides toxiques, alors que l’ajout d’antioxydants l’augmente. Ainsi, un excès de nutriments pourrait induire la mort prématurée des cellules LSFC et, pour atténuer cette mort, il serait important de combiner plusieurs interventions ciblant différents mécanismes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le contexte actuel de l’éducation au Québec où la réforme des programmes de formation des jeunes appelle un renouvellement des pratiques d’enseignement, notre recherche s’intéresse au développement de la dimension didactique de la pratique liée à l’enseignement des mathématiques qui est considéré comme l’un des éléments clés des nouvelles orientations. Nous abordons la question par le biais de la collaboration de formation initiale pour l’enseignement des mathématiques au primaire qui se vit en stage entre des praticiennes en exercice et en formation et une didacticienne des mathématiques. Cette rencontre sur le terrain des stages au primaire entre praticiennes et didacticienne, longtemps réclamée et rendue possible à l’UQAT , nous a amené à formuler une première question de recherche touchant ce qui se construit à travers les échanges de ces partenaires de la formation au cours des supervisions pédagogiques conjointes qui les réunissent en stage. Nous avons cadré ce questionnement à partir des balises théoriques de la didactique professionnelle qui proposent modèle et concepts pour expliciter l’activité professionnelle et traiter des phénomènes de développement des compétences professionnelles en contexte de travail et de formation. La didactique professionnelle attribue un rôle essentiel à la communauté de pratique et au processus d’analyse de l’expérience dans le développement professionnel des novices et dans l’explicitation d’un savoir d’action jugé pertinent et reconnu. Nous y faisons donc appel pour poser le potentiel que représentent les échanges issus de la collaboration quant à leur contribution à l’établissement d’un savoir de référence pour l’enseignement des mathématiques. La didactique professionnelle propose également le recours au concept de schème pour décrire l’activité professionnelle et à l’idée de concepts organisateurs comme élément central de l’activité et comme variable de la situation professionnelle concernée. Nous recourons à ces mêmes concepts pour expliciter le savoir de référence pour l’enseignement des mathématiques qui émerge à travers les échanges des partenaires de la formation. Dans le cadre d’une étude de cas, nous nous sommes intéressée aux échanges qui se déroulent entre une stagiaire qui effectue son troisième et avant dernier stage , l’enseignante-associée qui la reçoit et la chercheure-didacticienne qui emprunte le rôle de superviseure universitaire. Les échanges recueillis sont issus de trois cycles de supervision conjointe qui prennent la forme de rencontres de préparation des situations d’enseignement de mathématique; d’observation en classe des séances d’enseignement pilotées par la stagiaire auprès de ses élèves; et des rencontres consacrées à l’analyse des situations d’enseignement observées et de l’activité mise en œuvre par la stagiaire. Ainsi les objets de discussion relevés par les différents partenaires de la formation et la négociation de sens des situations professionnelles vécues et observées sont analysés de manière à rendre visibles les constituants de l’activité professionnelle qui sont jugés pertinents par la triade de formation. Dans un deuxième temps, en partant de cette première analyse, nous dégageons les concepts organisateurs des situations professionnelles liées à l’enseignement des mathématiques qui sont pris en compte par la triade de formation et qui constituent des variables de la situation professionnelle. Les constituants de l’activité et des situations professionnelles qui résultent de cette analyse sont envisagés en tant que représentations collectives qui se révèlent à travers les échanges de la triade de formation. Parce que ces représentations se sont trouvées partagées, négociées dans le cadre des supervisions pédagogiques, elles sont envisagées également en tant que savoir de référence pour cette triade de formation. Les échanges rendus possibles entre les praticiennes et la didacticienne placent ce savoir de référence dans une dynamique de double rationalité pratique et didactique. Enfin, partant de l’apport déterminant de la communauté de pratique et de formation de même que du savoir de référence que cette dernière reconnait comme pertinent dans le développement professionnel des novices, les résultats de cette recherches peuvent contribuer à réfléchir la formation des futures enseignantes en stage en ce qui a trait à l’enseignement des mathématiques au primaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Par son recours à diverses formes d’expression, Unica Zürn (1916-1970) redynamise l’espace de la feuille en le faisant activement participer à l’écriture de soi. Le « je » semble en effet se démultiplier grâce à des jeux « anagrammatiques » sur les divers signes mobilisés, qu’ils soient alphabétiques, picturaux ou musicaux. L’autoreprésentation s’inscrit alors au sein d’une œuvre pluridisciplinaire inusitée, qui renouvelle l’esthétique quelque peu « essoufflée » du mouvement surréaliste. Cette attitude vis-à-vis de la feuille, où plusieurs signes « décomposables » et « recomposables » se partagent l’espace, est observable tant dans l’œuvre littéraire que picturale d’Unica Zürn. Le processus de création par la lettre, le trait et la note de musique, tend à revaloriser le support matériel utilisé par l’effacement des frontières entre les disciplines artistiques, qui appelle un regard distancié du lecteur/spectateur sur l’œuvre. Afin d’interpréter les travaux de Zürn dans la pluralité des moyens artistiques qui y sont déployés, l’approche intermédiale sera favorisée. Dans le premier chapitre de ce mémoire, il s’agira d’abord de voir comment s’articule un certain dialogue entre le discours des chercheurs de l’intermédialité et l’œuvre d’Unica Zürn. Le rapport à l’objet sera notre porte d’entrée dans la matière intermédiale. Par un retour à la matérialité de l’expérience médiatique, nous constaterons que Zürn met à l’avant-scène les instruments et supports de la création, ce qui mène à une représentation distorsionnée de soi, de l’espace et du temps. Une fois le parallèle établi entre les concepts de l’intermédialité et les travaux de Zürn, nous nous concentrerons sur le pan musical de l’œuvre pluridisciplinaire de l’auteure-artiste. Le second chapitre traitera de l’intrusion du sonore dans l’univers textuel, qui se fera notamment par la réappropriation de l’opéra Norma, de Vincenzo Bellini. Cette réécriture s’intitule Les jeux à deux et prend une distance considérable par rapport au texte originel. Elle s’accompagne de dessins effectués par l’auteure-artiste à même les partitions de l’opéra. Le regard multiple posé sur l’œuvre zürnienne permettra de comprendre que l’écriture palimpseste participe du processus d’autoreprésentation, tout en élaborant un discours sur la rencontre entre littérature, dessin et musique, ainsi que sur l’influence de cette juxtaposition sur le débordement des frontières médiatiques traditionnelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La création, Bois dormant, met en scène un charpentier-ébéniste qui consacre tous ses temps libres à la création de mobilier, dans un cycle de production inutile. Sa dilapidation insensée de bois incite la nature à se révolter contre lui et à propager une énergie qui donne vie à tous les objets de sa maison. Ce conte revisite plusieurs contes (La Barbe bleue, Les Aventures de Pinocchio, Otesánek, La Belle au bois dormant, Les Aventures d’Alice au pays des merveilles, Cendrillon) pour les transformer en cauchemar, en effriter les morales, en décupler les cruautés et en utiliser les motifs pour illustrer l’absurdité du monde moderne. Ce conte-Frankenstein, par son esthétique baroque où prime la parenthèse, fait de la surenchère un reflet de la surconsommation. L’essai, La réécriture féministe contemporaine de quatre contes dans Putain, de Nelly Arcan et Peau d’âne, de Christine Angot, explore comment, par les réécritures qu’ils inspirent, les contes de Perrault et des frères Grimm constituent un puissant matériau d’incarnation qui facilite la venue à l’écriture du traumatisme chez Christine Angot et Nelly Arcan, mais qui sert aussi d’outil de dénonciation féministe pour elles. Dans Putain, de Nelly Arcan, la narratrice met en lumière, par des réinterprétations des contes du Petit Chaperon rouge, de La Belle au bois dormant et de Blanche-Neige, différents aspects de sa détresse face à l’oppression du regard masculin. Quant à Christine Angot, dans Peau d’âne, elle propose, par une réécriture du conte de Peau d’âne en parallèle avec celui de La Belle au bois dormant, de révéler les répercussions perverses des dictats de la mode et de la loi du père sur l’identité de la femme. Toutes ces réécritures permettent de déjouer la logique valorisée par les contes et d’en démontrer l’absurdité et le caractère malsain d’un point de vue féministe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De grandes enquêtes en milieu scolaire, au Québec comme ailleurs, ont documenté depuis les années 2000 la portée des violences homophobes, particulièrement à l’école secondaire, ainsi que leurs impacts négatifs sur les élèves qui en sont victimes, qu’ils s’identifient ou non comme lesbiennes, gais, bisexuel(le)s ou en questionnement (LGBQ). La diffusion des résultats de ces enquêtes, ainsi que les constats similaires d’acteurs sur le terrain, ont fait accroitre les appels à la vigilance des écoles quant aux discriminations homophobes pouvant prendre forme en leur enceinte. Plusieurs des responsabilités résultant de cette mobilisation ont échoué par défaut aux enseignants, notamment en raison de leur proximité avec leurs élèves. Cependant, malgré la panoplie de publications et de formations visant explicitement à les outiller à ce sujet, les enseignants rapportent de manière consistante manquer de formation, d’habiletés, de soutien et d’aise à l’idée d’intervenir contre l’homophobie ou de parler de diversité sexuelle en classe. Cette thèse de doctorat vise à comprendre les pratiques d’intervention et d’enseignement que rapportent avoir les enseignants de l’école secondaire québécoise, toutes orientations sexuelles confondues, par rapport à la diversité sexuelle et à l’homophobie. Dans une perspective interdisciplinaire, nous avons interrogé la sociologie de l’éducation, les études de genre (gender studies) et les études gaies et lesbiennes, ainsi qu’emprunté aux littératures sur les pratiques enseignantes et sur l’intervention sociale. Les données colligées consistent en des entrevues semi-structurées menées auprès de 22 enseignants du secondaire, validées auprès de 243 enseignants, par le biais d’un questionnaire en ligne. Étayés dans trois articles scientifiques, les résultats de notre recherche permettent de mieux saisir la nature des pratiques enseignantes liées à la diversité sexuelle, mais également les mécanismes par lesquels elles viennent ou non à être adoptées par les enseignants. Les témoignages des enseignants ont permis d’identifier que les enseignants sont globalement au fait des attentes dont ils font l’objet en termes d’intervention contre l’homophobie. Ceci dit, en ce qu’ils sont guidés dans leurs interventions par le concept limité d’homophobie, ils ne paraissent pas toujours à même de saisir les mécanismes parfois subtils par lesquels opèrent les discriminations sur la base de l’orientation sexuelle, mais aussi des expressions de genre atypiques. De même, si la plupart disent condamner vertement l’homophobie dont ils sont témoins, les enseignants peuvent néanmoins adopter malgré eux des pratiques contribuant à reconduire l’hétérosexisme et à alimenter les mêmes phénomènes d’infériorisation que ceux qu’ils cherchent à combattre. Sauf exception, les enseignants tendent à comprendre le genre et l’expression de genre davantage comme des déterminants de type essentialiste avec lesquels ils doivent composer que comme des normes scolaires et sociales sur lesquelles ils peuvent, comme enseignants, avoir une quelconque influence. Les stratégies de gestion identitaire des enseignants LGB influencent les pratiques qu’ils rapportent être en mesure d’adopter. Ceux qui optent pour la divulgation, totale ou partielle, de leur homosexualité ou bisexualité peuvent autant rapporter adopter des pratiques inclusives que choisir de se tenir à distance de telles pratiques, alors que ceux qui favorisent la dissimulation rapportent plutôt éviter autant que possible ces pratiques, de manière à se garder de faire face à des situations potentiellement délicates. Également, alors que les enseignants LGB étaient presque exclusivement vus jusqu’ici comme ceux chez qui et par qui se jouaient ces injonctions à la vie privée, les enseignants hétérosexuels estiment également être appelés à se positionner par rapport à leur orientation sexuelle lorsqu’ils mettent en œuvre de telles pratiques. Nos résultats révèlent un double standard dans l’évocation de la vie privée des enseignants. En effet, la divulgation d’une orientation hétérosexuelle, considérée comme normale, est vue comme conciliable avec la neutralité attendue des enseignants, alors qu’une révélation similaire par un enseignant LGB est comprise comme un geste politique qui n’a pas sa place dans une salle de classe, puisqu’elle se fait au prix du bris d’une présomption d’hétérosexualité. Nos résultats suggèrent qu’il existe de fortes prescriptions normatives relatives à la mise en genre et à la mise en orientation sexuelle à l’école. Les enseignants s’inscrivent malgré eux dans cet environnement hétéronormatif. Ils peuvent être amenés à y jouer un rôle important, que ce soit en contribuant à la reconduction de ces normes (par exemple, en taisant les informations relatives à la diversité sexuelle) ou en les contestant (par exemple, en expliquant que certains stéréotypes accolés à l’homosexualité relèvent d’aprioris non fondés). Les discours des enseignants suggèrent également qu’ils sont traversés par ces normes. Ils peuvent en effet choisir de se conformer aux attentes normatives dont ils font l’objet (par exemple, en affirmant leur hétérosexualité), ou encore d’y résister (par exemple, en divulguant leur homosexualité à leurs élèves, ou en évitant de conforter les attentes dont ils font l’objet) au risque d’être conséquemment pénalisés. Bien entendu, cette influence des normes de genre diffère d’un enseignant à l’autre, mais semble jouer autant sur les enseignants hétérosexuels que LGB. Les enseignants qui choisissent de contester, explicitement ou implicitement, certaines de ces normes dominantes rapportent chercher des appuis formels à leurs démarches. Dans ce contexte, une telle quête de légitimation (par exemple, la référence aux règlements contre l’homophobie, la mobilisation des similitudes entre l’homophobie et le racisme, ou encore le rapprochement de ces enseignements avec les apprentissages prescrits pour leur matière) est à comprendre comme un outillage à la contestation normative. La formation professionnelle des enseignants sur l’homophobie et sur la diversité sexuelle constitue un autre de ces outils. Alors que les enseignants québécois continuent d’être identifiés comme des acteurs clés dans la création et le maintien d’environnements scolaires non-discriminatoires et inclusifs aux réalités de la diversité sexuelle, il est impératif de les appuyer en multipliant les signes formels tangibles sur lesquelles leurs initiatives peuvent prendre appui (politiques explicites, curriculum scolaire inclusif de ces sujets, etc.). Nos résultats plaident en faveur d’une formation enseignante sur la diversité sexuelle, qui ferait partie du tronc commun de la formation initiale des maîtres. Chez les enseignants en exercice, il nous apparait préférable de miser sur une accessibilité accrue des formations et des outils disponibles. En réponse toutefois aux limites que pose à long terme une approche cumulative des formations spécifiques portant sur différents types d’oppressions (l’homophobie, le racisme, le sexisme, etc.), nous argumentons en faveur d’un modèle d’éducation anti-oppressive au sein duquel les élèves seraient invités à considérer, non seulement la multiplicité et le caractère situé des divers types d’oppressions, mais également les mécanismes d’attribution de privilège, de constitution de la normalité et de la marginalité, et de présentation de ces arbitraires culturels comme des ordres naturels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’utilisation de nanoparticules (NPs) dans divers domaines industriels est de plus en plus fréquente ce qui génère leur propagation dans l’environnement. Selon leur persistance, mobilité, bioaccumulation et toxicité, des risques inconnus pour la santé et pour des écosystèmes peuvent en résulter. En effet, la caractérisation et la quantification sont des défis analytiques très complexes en raison de la nature dynamique (petite taille, grande réactivité et instabilité) des nanomatériaux. L'objectif de cette étude est donc de caractériser par ultracentrifugation analytique (AUC) des nanoparticules polymériques (Allosperse® dites allosphères) qui sont destinées à des fins agricoles. Pour y parvenir, différentes NPs métalliques (argent, quantum dot), oxydes métalliques (dioxyde de titane, oxyde de zinc) et NPs de polystyrène ont d’abord été mesurés par AUC à l’aide des différents systèmes de détection (absorbance, fluorescence et interférence). Dans le cas des allosphères, un grand nombre d'essais préliminaires ont été réalisés afin d'optimiser la vitesse d'ultracentrifugation, le temps d'ultracentrifugation, le nombre de numérisations et la concentration de l'échantillon. Un protocole optimisé a été utilisé pour la détermination du diamètre hydrodynamique (dh) des NPs. Les différentes analyses qui ont été réalisées dans cette étude révèlent que l’AUC permet de déterminer la taille de très petites NPs. Par ailleurs, une étude du comportement de ces allosphères pour des pH entre 4-8, des forces ioniques de 0 à 500 mM, en présence ou absence de matière organique naturelle a été entreprise. Les travaux ont montré que le dH était d’environ 7,0 nm avec de petites augmentations à faible pH, ou à très grande force ionique ou dureté. Ces résultats indiquent la grande stabilité physique et chimique des allosphères qui auront, ainsi, une grande mobilité dans les sols. La diffusion de lumière dynamique et la spectroscopie de corrélation de fluorescence ont été utilisées afin de valider les résultats obtenus par l’AUC.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

by Joanne M. Kaufman.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’ objectiu principal d’ aquesta proposta d’ educació ambiental és habilitar un espai físic que ja existeix, la rectoria de Cartellà, on els alumnes de primària i de secundària, i les famílies puguin participar d’ una sèrie d’ activitats encarades a l’ obtenció de nous valors relacionats amb el respecte cap a l’ entorn natural. El projecte s’ estructura bàsicament en dues parts: una primera on es situa i es descriu l’ espai on es destina la proposta i una segona on es tracten les actuacions específiques per tal d’ aconseguir que la gent es familiaritzi amb l’ entorn i aprengui a actuar de manera respectuosa amb el medi

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este artículo forma parte del monográfico 'Acolliment de nouvinguts'

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Blue Leaf es un proyecto de emprendimiento que consiste en la elaboración y venta directa de bebidas naturales a base de frutas a través de un food truck en la ciudad de Bogotá. Tras revisar algunas tendencias actuales como la cultura Fitness y el Juicing, y tras identificar un problema sobre los hábitos de alimentación desordenados que llevan muchas personas, nace Blue Leaf como una alternativa de alimentación saludable, natural, práctica y diferente. El negocio contará inicialmente con un portafolio de 12 bebidas divididas en tres categorías. Primero, las bebidas alimenticias cuentan con altos contenidos nutricionales y sirven como fuente de alimento práctico y saludable; segundo, las bebidas funcionales, están diseñadas para ofrecer beneficios específicos de salud como desintoxicar, ayudar a bajar de peso o fortalecer las defensas; por último, las bebidas fuente de energía, cuentan con altos niveles de vitaminas y minerales que le permiten a los consumidores recargar energías rápidamente y continuar con sus actividades diarias. Adicionalmente, Blue Leaf ofrecerá la oportunidad a los consumidores de hacer su propia bebida, dándoles la posibilidad de elegir de entre más de 50 ingredientes entre bases, frutas, verduras, hierbas, semillas, adiciones y endulzantes. El proyecto es liderado por Paola Higuera Rodríguez y David Santiago Soto, ambos estudiantes de la Escuela de Administración de la Universidad del Rosario

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los autores del artículo proponen, desde la educación, la defensa de la globalización de la riqueza, la información, el derecho al conocimiento, la diversidad cultural... porque el ser humano es el primer interesado en ello. Defienden una globalización humanista y no sólo económica en la que unos salgan beneficiados en perjuicio de otros. Se exponen estrategias educativas para afrontar las problemáticas que la globalización genera.