769 resultados para normalization
Resumo:
Afin d’être représentatif d’un niveau d’effort musculaire, le signal électromyographique (EMG) est exprimé par rapport à une valeur d’activation maximale. Comme l’épaule est une structure articulaire et musculaire complexe, aucune contraction volontaire isométrique (CVMi) proposée dans la littérature ne permet d’activer maximalement un même muscle de l’épaule pour un groupe d’individus. L’objectif de ce mémoire est de développer une approche statistique permettant de déterminer les CVMi optimales afin de maximiser les niveaux d’activation d’un ensemble de muscles de l’épaule. L’amplitude du signal EMG de 12 muscles de l’épaule a été enregistrée chez 16 sujets alors qu’ils effectuaient 15 CVMi. Une première approche systématique a permis de déterminer les 4 CVMi parmi les 15 qui ensemble maximisent les niveaux d’activation pour les 12 muscles simultanément. Ces 4 contractions ont donné des niveaux d’activation supérieurs aux recommandations antérieures pour 4 muscles de l’épaule. Une seconde approche a permis de déterminer le nombre minimal de CVMi qui sont nécessaires afin de produire un niveau d’activation qui n’est pas significativement différent des valeurs d’activation maximales pour les 16 sujets. Pour 12 muscles de l’épaule, un total de 9 CVMi sont requises afin de produire des valeurs d’activation qui sont représentatives de l’effort maximal de tous les sujets. Ce mémoire a proposé deux approches originales, dont la première a maximisé les niveaux d’activation qui peuvent être produits à partir d’un nombre fixe de CVMi tandis que la deuxième a permis d’identifier le nombre minimal de CVMi nécessaire afin de produire des niveaux d’activation qui ne sont pas significativement différentes des valeurs d’activation maximales. Ces deux approches ont permis d’émettre des recommandations concernant les CVMi nécessaires à la normalisation de l’EMG afin de réduire les risques de sous-estimer l’effort maximal d’un ensemble d’individus.
Resumo:
La réalité des marchés de la drogue, opérés par des adolescents sur les lieux mêmes de leur école secondaire, demeure méconnue. L’actuelle recherche fut entreprise avec l’objectif d’explorer cet univers particulier. Pour y parvenir, cette étude a donné la parole à douze jeunes vendeurs adolescents, ayant transigé sur leur lieu d’enseignement. Les quatre objectifs spécifiques, définis au préalable, ont été atteints. Premièrement, selon les propos recueillis de la part des jeunes vendeurs, un phénomène de normalisation de la consommation de cannabis et certaines autres drogues serait bien présent au sein de cette population. Toutefois, les jeunes expliquent que leur définition de « normal » fluctuerait selon leur étape de vie du moment. Deuxièmement, toujours selon la compréhension des adolescents rencontrés, leur implication au sein du trafic de drogue s’expliquerait par trois facteurs: financier, réseautage, prestige et pouvoir. Troisièmement, les jeunes trafiquants rencontrés ont émis leur opinion sur l’efficacité des moyens de répression et de prévention situationnelle instaurés dans les écoles, ainsi que sur leurs astuces pour les déjouer. Ils ont aussi relaté une réalité de violence qui serait présente au sein de ces réseaux. Finalement, les jeunes interviewés ont explicité leur compréhension de l’impact des interventions tentées par l’école secondaire, pour les détourner de leur trajectoire criminelle. La conclusion essentielle de ce mémoire demeure le besoin, exprimé par ces adolescents, d’être encadrés et limités par leur environnement scolaire, parental et autres adultes de leur entourage. Comme il leur serait difficile de se discipliner; ils demandent qu’on les protège d’eux-mêmes.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Introduction : La croissance maxillo-mandibulaire des enfants avec une séquence de Pierre Robin (SPR) est controversée dans la littérature. Certains auteurs croient que la croissance mandibulaire est accélérée après la naissance, mais peu se sont penchés sur la croissance du maxillaire supérieur. Cette étude rétrospective sur dossier vise à analyser la croissance maxillo-mandibulaire des enfants atteints de la SPR. Dans un deuxième temps, nous aurions aimé évaluer la sévérité et l’évolution de l’apnée du sommeil en lien avec la croissance des maxillaires, mais un manque de données a empêché l’atteinte de cet objectif. Matériel et méthode : Les dossiers médicaux et orthodontiques de 93 patients (82 volet apnée et 40 volet croissance) du CHU Ste-Justine avec une SPR isolée ont été révisés puis comparés au groupe contrôle composé d’enfants normaux de l’Université du Michigan. L’analyse statistique de modèle mixte pour mesures répétées de même que celle de Brunner-Langer furent effectuées. Résultats : L’évaluation orthodontique a montré un changement statistiquement significatif pour la relation molaire droite, la présence de chevauchement et de diastème au maxillaire et le surplomb vertical. L’analyse des données céphalométriques nous montre que le maxillaire supérieur, la branche montante et le corps de la mandibule sont tous réduits par rapport à la normale. Ce dernier montre une diminution significative avec l’âge (p = 0,03). L’angle gonial, le SNA, SNB, ANB, l’angle de convexité faciale et l’inclinaison de l’incisive supérieure par rapport à FH sont tous normaux. Par contre, on remarque une augmentation statistiquement significative de cette dernière avec l’âge (p = 0,04). L’angle Y est augmenté tandis que les hauteurs faciales supérieure (HFS) et inférieure (HFI) sont diminuées bien que cette dernière montre une tendance à s’approcher de la normale avec l’âge (p ≤ 0,001). Discussion : Les dimensions des maxillaires sont similaires à plusieurs études. En ce qui concerne la mandibule, la croissance est soit plus lente, soit diminuée. Cette observation est plus marquée lorsque l’on s’approche du pic de croissance puisque l’écart par rapport à la normale s’agrandit. On voit une tendance à la croissance hyperdivergente qui pourrait expliquer l’augmentation de la HFI avec l’âge. Le fait que SNA et SNB soient dans la normale pourrait s’expliquer par une diminution de la longueur de la base crânienne. Conclusion : Il n’y a pas de rattrapage de croissance maxillaire et mandibulaire. Les maxillaires restent micrognathes quoique proportionnels l’un envers l’autre et le profil est convexe tout au long de la croissance. La comparaison des données céphalométriques et des traitements orthodontiques avec ceux des patients présentant une fente palatine isolée devrait se faire sous peu. Nous n’avons pas été en mesure d’atteindre nos objectifs concernant l’apnée du sommeil. Une étude prospective serait à prévoir pour y arriver.
Resumo:
La violence chronique qui caractérise la Somalie depuis plus de deux décennies a forcé près de deux millions de personnes à fuir. Cette ethnographie étudie l’expérience de l’asile prolongé de jeunes Somaliens qui ont grandi au camp de Kakuma, au Kenya. Leur expérience est hors du commun, bien qu’un nombre croissant de réfugiés passent de longues années dans des camps pourtant conçus comme temporaires, en vertu de la durée des conflits et de la normalisation de pratiques de mise à l’écart de populations « indésirables ». Nous explorons la perception qu’ont ces jeunes de leur environnement et de quelle façon leur exil structure leur perception du passé et de leur pays d’origine, et de leur futur. Ce faisant, nous considérons à la fois les spécificités du contexte et l’environnement global, afin de comprendre comment l’expérience des gens est façonnée par (et façonne) les dynamiques sociales, politiques, économiques et historiques. Nous observons que le camp est, et demeure, un espace de confinement, indépendamment de sa durée d’existence ; bien que conçu comme un lieu de gestion rationnelle des populations, le camp devient un monde social où se développent de nouvelles pratiques ; les jeunes Somaliens font preuve d’agentivité et interprètent leur expérience de manière à rendre leur quotidien acceptable ; ces derniers expriment une frustration croissante lorsque leurs études sont terminées et qu’ils peinent à s’établir en tant qu’adultes, ce qui exacerbe leur désir de quitter le camp. En effet, même s’il existe depuis plus de 20 ans, le camp demeure un lieu de transition. L’expérience de jeunes Somaliens qui ont grandi dans un camp de réfugiés n’a pas été étudiée auparavant. Nous soutenons que cette expérience est caractérisée par des tensions entre contraintes et opportunités, mobilité et immobilité, isolation et connexion ou victimisation et affirmation du sujet – et des temporalités contradictoires. Cette étude souligne que des notions comme la convivialité ou la pluralité des appartenances développées dans la littérature sur la cohabitation interethnique dans les villes ou sur l’identité des migrants aident à appréhender le réalité du camp. Cette ethnographie montre également que, loin d’être des victimes passives, les réfugiés contribuent à trouver des solutions à leur exil.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
La question posée dans ce mémoire de recherche concerne l’artiste contemporain japonais Aida Makoto, comme figure provocante et ironique, remettant en question les appareils de répression et d’aliénation de la société capitaliste japonaise. L’objectif de ma réflexion est de montrer l’apport de la schizo-analyse dans l’analyse d’œuvres plastiques comportant des prédispositions à l’utilisation de celle-ci. À travers les œuvres de l’artiste Aida Makoto où une multiplicité de corps emplit l’espace de la toile, et à partir des concepts de multiplicité et de sensation théorisés par Gilles Deleuze et Félix Guattari, la recherche apportera une seconde lecture aux œuvres de cet artiste en mettant en avant les aspects révolutionnaires de sa création artistique. Constitué de deux chapitres, le mémoire porte dans un premier temps sur la picturalité de l’œuvre, d’ordre technique, esthétique et éthique, en mettant en avant les composés de sensation présents sur la toile, ceci afin, dans un second temps, d’appréhender la figuration, de la visagéité à la multiplicité, comme aspect central de l’œuvre. Ainsi, la Figure, au sens deleuzien du terme, permettrait à l’artiste Aida Makoto d’entamer une fuite schizophrénique à l’occasion de laquelle il pourra créer à l’abri de toute répression ou normalisation de ses machines désirantes par la société capitaliste japonaise.
Resumo:
Dans cette thèse, l’impact du polymorphisme rs3846662 sur l’épissage alternatif de la 3-hydroxy-3-méthylglutaryl coenzyme A réductase (HMGCR) a été investigué in vivo, chez des patients atteints d’hypercholestérolémie familiale (HF) ou de maladie d’Alzheimer (MA). Le premier manuscrit adresse la problématique de la normalisation de la quantification relative des ARNm par PCR quantitative. Les découvertes présentées dans ce manuscrit nous ont permis de déterminer avec un haut niveau de confiance les gènes de référence à utiliser pour la quantification relative des niveaux d’ARNm de l’HMGCR dans des échantillons de sang (troisième manuscrit) et de tissus cérébraux post-mortem (quatrième manuscrit). Dans le deuxième manuscrit, nous démontrons grâce à l’emploi de trois cohortes de patients distinctes, soit la population canadienne française du Québec et les deux populations nord américaines « Alzheimer’s Disease Cooperative Study (ADCS) » et « Alzheimer’s Disease Neuroimaging Initiative (ADNI) », que le génotype AA au locus rs3846662 confère à ces porteurs une protection considérable contre la MA. Les femmes porteuses de ce génotype voient leur risque de MA diminuer de près de 50% et l’âge d’apparition de leurs premiers symptômes retarder de 3.6 ans. Les porteurs de l’allèle à risque APOE4 voient pour leur part leurs niveaux de plaques séniles et dégénérescences neurofibrillaires diminuer significativement en présence du génotype AA. Enfin, les individus atteints de déficit cognitif léger et porteurs à la fois de l’allèle APOE4 et du génotype protecteur AA voient leur risque de convertir vers la MA chuter de 76 à 27%. Dans le troisième manuscrit, nous constatons que les individus atteints d’HF et porteurs du génotype AA ont, contrairement au modèle établi chez les gens normaux, des niveaux plus élevés de cholestérol total et de LDL-C avant traitement comparativement aux porteurs de l’allèle G. Le fait que cette association n’est observée que chez les non porteurs de l’APOE4 et que les femmes porteuses du génotype AA présentent à la fois une augmentation des niveaux d’ARNm totaux et une résistance aux traitements par statines, nous indique que ce génotype influencerait non seulement l’épissage alternatif, mais également la transcription de l’HMGCR. Comme une revue exhaustive de la littérature ne révèle aucune étude abondant dans ce sens, nos résultats suggèrent l’existence de joueurs encore inconnus qui viennent influencer la relation entre le génotype AA, l’épissage alternatif et les niveaux d’ARNm de l’HMGCR. Dans le quatrième manuscrit, l’absence d’associations entre le génotype AA et les niveaux d’ARNm Δ13 ou de protéines HMGCR nous suggère fortement que ce polymorphisme est non fonctionnel dans le SNC affecté par la MA. Une étude approfondie de la littérature nous a permis d’étayer cette hypothèse puisque les niveaux de HNRNPA1, la ribonucléoprotéine influencée par l’allèle au locus rs3846662, sont considérablement réduits dans la MA et le vieillissement. Il est donc proposé que les effets protecteurs contre la MA associés au génotype AA soient le résultat d’une action indirecte sur le processus physiopathologique.
Resumo:
Singularities of elastic and electric fields are investigated at the tip of a crack on the interface of two anisotropic piezo-electric media under various boundary conditions on the crack surfaces. The Griffith formulae are obtained for increments of energy functionals due to growth of the crack and the notion of the energy release matrix is introduced. Normalization conditions for bases of singular solution are proposed to adapt them to the energy, stress, and deformation fracture criteria. Connections between these bases are determined and additional properties of the deformation basis related to the notion of electric surface enthalpy are established.
Resumo:
The consumers are becoming more concerned about food quality, especially regarding how, when and where the foods are produced (Haglund et al., 1999; Kahl et al., 2004; Alföldi, et al., 2006). Therefore, during recent years there has been a growing interest in the methods for food quality assessment, especially in the picture-development methods as a complement to traditional chemical analysis of single compounds (Kahl et al., 2006). The biocrystallization as one of the picture-developing method is based on the crystallographic phenomenon that when crystallizing aqueous solutions of dihydrate CuCl2 with adding of organic solutions, originating, e.g., from crop samples, biocrystallograms are generated with reproducible crystal patterns (Kleber & Steinike-Hartung, 1959). Its output is a crystal pattern on glass plates from which different variables (numbers) can be calculated by using image analysis. However, there is a lack of a standardized evaluation method to quantify the morphological features of the biocrystallogram image. Therefore, the main sakes of this research are (1) to optimize an existing statistical model in order to describe all the effects that contribute to the experiment, (2) to investigate the effect of image parameters on the texture analysis of the biocrystallogram images, i.e., region of interest (ROI), color transformation and histogram matching on samples from the project 020E170/F financed by the Federal Ministry of Food, Agriculture and Consumer Protection(BMELV).The samples are wheat and carrots from controlled field and farm trials, (3) to consider the strongest effect of texture parameter with the visual evaluation criteria that have been developed by a group of researcher (University of Kassel, Germany; Louis Bolk Institute (LBI), Netherlands and Biodynamic Research Association Denmark (BRAD), Denmark) in order to clarify how the relation of the texture parameter and visual characteristics on an image is. The refined statistical model was accomplished by using a lme model with repeated measurements via crossed effects, programmed in R (version 2.1.0). The validity of the F and P values is checked against the SAS program. While getting from the ANOVA the same F values, the P values are bigger in R because of the more conservative approach. The refined model is calculating more significant P values. The optimization of the image analysis is dealing with the following parameters: ROI(Region of Interest which is the area around the geometrical center), color transformation (calculation of the 1 dimensional gray level value out of the three dimensional color information of the scanned picture, which is necessary for the texture analysis), histogram matching (normalization of the histogram of the picture to enhance the contrast and to minimize the errors from lighting conditions). The samples were wheat from DOC trial with 4 field replicates for the years 2003 and 2005, “market samples”(organic and conventional neighbors with the same variety) for 2004 and 2005, carrot where the samples were obtained from the University of Kassel (2 varieties, 2 nitrogen treatments) for the years 2004, 2005, 2006 and “market samples” of carrot for the years 2004 and 2005. The criterion for the optimization was repeatability of the differentiation of the samples over the different harvest(years). For different samples different ROIs were found, which reflect the different pictures. The best color transformation that shows efficiently differentiation is relied on gray scale, i.e., equal color transformation. The second dimension of the color transformation only appeared in some years for the effect of color wavelength(hue) for carrot treated with different nitrate fertilizer levels. The best histogram matching is the Gaussian distribution. The approach was to find a connection between the variables from textural image analysis with the different visual criteria. The relation between the texture parameters and visual evaluation criteria was limited to the carrot samples, especially, as it could be well differentiated by the texture analysis. It was possible to connect groups of variables of the texture analysis with groups of criteria from the visual evaluation. These selected variables were able to differentiate the samples but not able to classify the samples according to the treatment. Contrarily, in case of visual criteria which describe the picture as a whole there is a classification in 80% of the sample cases possible. Herewith, it clearly can find the limits of the single variable approach of the image analysis (texture analysis).
Resumo:
La relación de nuevos términos candidatos a ser incluidos en el Tesauro Europeo de Educación, va más allá de la utilidad que este pueda tener para indizar y recuperar documentos de la especialidad, subyace otro objetivo muy importante; lograr una normalización en el lenguaje utilizado por los profesionales de información en Ibero América. Si este objetivo se logra, significará sin duda un gran aporte para el intercambio de experiencias profesionales, académicas y de investigación en Ibero América. La actualización de los tesauros deben ser en forma permanente, su construcción y mantenimiento depende de un consenso de personas o instituciones, que siguen esquemas de colaboración claros, para formar parte de un proyecto amplio encaminado a mejorar el conocimiento de los sistemas de información para el manejo de la documentación.
Resumo:
En la literatura existen descritas varias técnicas de preoxigenación aplicadas a diferentes pacientes y realizadas con diferentes flujos o fracciones inspiradas de oxigeno, sin embargo no se encuentran descripciones ni estudios realizados con respecto a este tópico en pacientes ubicados por encima de los 1000 mts sobre el nivel del mar. El objetivo del presente estudio es describir el patrón de saturación con oxigeno al 100% obteniendo fracción espirada de oxígeno (EtO2) >90% y Saturación de oxígeno (SaO2) > 99%, así como el patrón de normalización de la saturación de oxigeno con una fracción inspirada del 21% con cuatro técnicas estandarizadas de preoxigenación, en personas voluntarias sanas pertenecientes a la Fundación Cardio Infantil a 2600 metros sobre el nivel del mar. Materiales y métodos: Este es un estudio cuasiexperimental en personas adultas voluntarias sanas pertenecientes a la Fundación Cardio Infantil, los cuales son sometidos a toma de saturación de oxígeno basal y luego se les aplica preoxigenación con fracción inspirada oxigeno (FiO2) al 100% con un flujo de 10Lt/min, mediante sello de máscara facial con arnés: Simultáneamente se realiza una medición de la fracción espirada de oxígeno (ETO2) y oximetría de pulso (SaO2) cada 15 segundos con cada una de las cuatro pruebas de preoxigenación (volumen corriente por 3 minutos, 8 capacidades vitales, volumen corriente hasta ETO2 de =90% y capacidades vitales hasta ETO2 =90%) y luego medición del tiempo de normalización de la saturación respirando al oxígeno con FiO2 al 21 % hasta alcanzar nuevamente la SaO2 basal, con cada técnica. Resultados: No existe diferencia significativa en la aplicación de las técnicas de preoxigenación ni tampoco en el tiempo de normalización de la saturación de oxígeno con FiO2 al 21 % al nivel de Bogotá con las cuatro técnicas de preoxigenación aplicadas a nuestros pacientes. Conclusión: Las cuatro técnicas de preoxigenación son efectivas, sin embargo recomendamos el uso de técnicas que buscan una ETO2=90%. Por otra parte encontramos que el tiempo de recuperación de la saturación basal es de 3,9 minutos en personas voluntarias sanas a 2600 mts sobre el nivel del mar, la cual es inferior comparada con los 10 minutos que toma la normalización de la saturación de oxígeno a 0 mts sobre el nivel del mar descritos previamente en la literatura. Hace falta realizar estudios de preoxigenación y apnea en pacientes a nuestra altura (2600 mts sobre el nivel del mar) para confirmar que el tiempo de desaturación es significativamente menor que a nivel del mar. Palabras Claves: Preoxigenación, Fracción espirada de O2 (EtO2), saturación de oxígeno (SaO2).
Resumo:
Esta monografía hace uso de la Teoría del Realismo Político para establecer la incidencia del retorno de Francia al Comando Militar Integrado de la OTAN en sus relaciones con Estados Unidos en el periodo 2007-2011. La decisión del entonces Presidente Nicolás Sarkozy de reintegrar a Francia al Comando Militar Integrado de la OTAN, marcó una reevaluación estratégica de Francia a través del acercamiento con Estados Unidos como parte de un nuevo enfoque respecto al rol de Francia en el sistema internacional. El reintegro tuvo un impacto significativo en las relaciones franco-americanas: la normalización de Francia en la OTAN fue de gran interés para ambos Estados en la medida en que actuó a favor de sus necesidades estratégicas, siendo también un gesto político que recompuso las maltrechas relaciones tras la crisis de la Guerra de Iraq en el año 2003.
Resumo:
Introducción: la insuficiencia renal crónica IRC ha aumentado su prevalencia en los últimos años pasando de 44.7 pacientes por millón en 1993 a 538.46 pacientes por millón en 2010, los pacientes quienes reciben terapia de remplazo renal hemodiálisis en Colombia cada vez tienen una mayor sobrevida. El incremento de los pacientes y el incremento de la sobrevida nos enfocan a mejorar la calidad de vida de los años de diálisis. Metodología: se comparó la calidad de vida por medio del SF-36 en 154 pacientes con IRC estadio terminal en manejo con hemodiálisis, 77 pacientes incidentes y 77 pacientes prevalentes, pertenecientes a una unidad renal en Bogotá, Colombia. Resultados: se encontró una disminución de la calidad de vida en los componentes físicos (PCS) y metales (MCS) de los pacientes de hemodiálisis en ambos grupos. En el modelo de regresión logística la incapacidad laboral (p=0.05), el uso de catéter (p= 0,000), el bajo índice de masa corporal (p=0.021), la hipoalbuminemia (p=0,033) y la anemia (p=0,001) fueron factores determinantes en un 78,9% de baja calidad de vida de PCS en los pacientes incidentes con respecto a los prevalentes. En el MCS de los pacientes incidentes vs. Prevalentes se encontró la hipoalbuminemia (p=0.007), la anemia (p=0.001) y el acceso por catéter (p=0.001) como factores determinantes en un 70.6% de bajo MCS Conclusiones: la calidad de vida de los pacientes de diálisis se encuentra afectada con mayor repercusión en el grupo de los pacientes incidentes, se debe mejorar los aspectos nutricionales, hematológicos y de acceso vascular en este grupo.
Resumo:
El presente trabajo es una revisión de la literatura de investigación en Ciberpsicología centrada en las categorías de privacidad, intimidad, identidad y vulnerabilidad, y en la forma como estas se desarrollan en las redes sociales virtuales. Los principales hallazgos indicaron que son los jóvenes quienes dedican gran parte de su tiempo a interactuar en dichas redes, y a su vez, dado el manejo que les dan, tienen mayor exposición ante los posibles riesgos de estas, como el matoneo, las conductas auto lesivas, la explotación sexual y los trastornos de la alimentación. Se describen estos riesgos y se proponen posibles soluciones.