403 resultados para Cinéma des premiers temps


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le principal rôle du corps calleux est d’assurer le transfert de l’information entre les hémisphères cérébraux. Du support empirique pour cette fonction provient d’études investiguant la communication interhémisphérique chez les individus à cerveau divisé (ICD). Des paradigmes expérimentaux exigeant une intégration interhémisphérique de l’information permettent de documenter certains signes de déconnexion calleuse chez ces individus. La présente thèse a investigué le transfert de l’information sous-tendant les phénomènes de gain de redondance (GR), de différence croisé– non-croisé (DCNC) et d’asynchronie bimanuelle chez les ICD et les individus normaux, et a ainsi contribué à préciser le rôle du corps calleux. Une première étude a comparé le GR des individus normaux et des ICD ayant subi une section partielle ou totale du corps calleux. Dans une tâche de détection, le GR consiste en la réduction des temps de réaction (TR) lorsque deux stimuli sont présentés plutôt qu’un seul. Typiquement, les ICD présentent un GR beaucoup plus grand (supra-GR) que celui des individus normaux (Reuter-Lorenz, Nozawa, Gazzaniga, & Hughes, 1995). Afin d’investiguer les conditions d’occurrence du supra-GR, nous avons évalué le GR en présentation interhémisphérique, intrahémisphérique et sur le méridien vertical, ainsi qu’avec des stimuli requérant une contribution corticale différente (luminance, couleur équiluminante ou mouvement). La présence d’un supra-GR chez les ICD partiels et totaux en comparaison avec celui des individus normaux a été confirmée. Ceci suggère qu’une section antérieure du corps calleux, qui perturbe le transfert d’informations de nature motrice/décisionnelle, est suffisante pour produire un supra-GR chez les ICD. Nos données permettent aussi d’affirmer que, contrairement au GR des individus normaux, celui des ICD totaux est sensible aux manipulations sensorielles. Nous concluons donc que le supra-GR des ICD est à la fois attribuable à des contributions sensorielles et motrices/décisionnelles. Une deuxième étude a investigué la DCNC et l’asynchronie bimanuelle chez les ICD et les individus normaux. La DCNC réfère à la soustraction des TR empruntant une voie anatomique « non-croisée » aux TR empruntant une voie anatomique « croisée », fournissant ainsi une estimation du temps de transfert interhémisphérique. Dans le contexte de notre étude, l’asynchronie bimanuelle réfère à la différence de TR entre la main gauche et la main droite, sans égard à l’hémichamp de présentation. Les effets de manipulations sensorielles et attentionnelles ont été évalués pour les deux mesures. Cette étude a permis d’établir une dissociation entre la DCNC et l’asynchronie bimanuelle. Précisément, les ICD totaux, mais non les ICD partiels, ont montré une DCNC significativement plus grande que celle des individus normaux, alors que les deux groupes d’ICD se sont montrés plus asynchrones que les individus normaux. Nous postulons donc que des processus indépendants sous-tendent la DCNC et la synchronie bimanuelle. De plus, en raison de la modulation parallèle du GR et de l’asynchronie bimanuelle entre les groupes, nous suggérons qu’un processus conjoint sous-tend ces deux mesures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En janvier 2008, une éclosion de réactions anaphylactoïdes (RA) potentiellement mortelles associées à l’injection intraveineuse d’héparine manufacturées en Chine et contaminée par le chondroïtine sulfate hypersulfaté (CSHS) a forcé le rappel de ces dernières par la U.S. Food and Drug Administration. Ces RA ont rapidement été attribuées à la libération de la bradykinine (BK) suite à l’activation du système de contact par le CSHS. Cependant, aucune évidence expérimentale définitive n’est à ce jour venue appuyer directement cette hypothèse. En se basant sur le nombre de morts déclaré et associé à la contamination (>150 morts au niveau mondial) ainsi qu’aux données épidémiologiques, qui stipulent que 25% des patients ayant développés une RA aux États-Unis étaient essentiellement des insuffisant rénaux en dialyse traités au moyen d’un inhibiteur de l’enzyme de conversion de l’angiotensine (iECA), nous avons émis l’hypothèse suivante : les RA causées par l’injection intraveineuse d’héparine contaminée au CSHS sont de nature multifactorielle et complexe. Le but de notre travail est donc, dans un premier temps, d’évaluer le pouvoir kininoformateur du CSHS en présence d’un iECA et de le comparer à celui du sulfate de dextran, un activateur de référence du système de contact. Comme les RA associées à l’injection intraveineuse d’héparine contaminée par le CSHS se produisent généralement dans les premières minutes des séances de dialyse, nous allons étudier l’effet de la dilution du plasma sur la quantité de BK libérée en présence ou en absence d’un iECA. Nous allons également mesurer les profils cinétiques de la libération de la BK sur un plasma stimulé par différents lots d’héparine contaminée, et associée à des RA, et nous comparerons cette cinétique avec celles d’une héparine de référence complémentée ou non avec différentes concentrations de CSHS synthétique. Enfin, nous allons caractériser le profil de libération de la BK et de son métabolite actif, la des-Arg9-BK, dans le plasma de patients dialysé ayant présenté une RA associée à une membrane de dialyse chargée négativement. L’application de méthodes expérimentales développées dans notre laboratoire nous a permis de montrer, pour la première fois, que l’héparine contaminée au CSHS a la capacité de libérer la BK à des concentrations susceptibles d’expliquer le rôle de ce peptide inflammatoire dans la physiopathologie des RA causées par l’injection intraveineuse d’héparine d’origine chinoise contaminée au CSHS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les règles actuelles limitant le recours à la force dans les relations internationales ont, pour la plupart, des origines historiques anciennes. Elles ont été façonnées par l'héritage que nous ont laissé de nombreux auteurs et de nombreuses doctrines comme la doctrine médiévale de la guerre juste. Depuis l'Antiquité jusqu'aux développements les plus récents du droit international, en passant par le Moyen Age et les temps modernes, cette étude s'attache a mettre en lumière les sources des règles contemporaines pour aider le lecteur à mieux comprendre, aujourd'hui, le droit international relatif au recours à la force et aussi, à être mieux équipé pour juger du caractère juste ou injuste d'une guerre. Les notions de légalité et de légitimité de la guerre ont été choisies pour passer en revue les règles en vigueur les plus révélatrices.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'une des critiques fondamentales adressées au mécanisme de contrôle et de surveillance de la Cour européenne des droits de l'homme en matière électorale tient au risque qu'il portera atteinte à la souveraineté de l'État. En effet, certains auteurs estiment que l'autonomie constitutionnelle de l'État dans le domaine électoral, jusqu'à tout récemment strictement protégée, s'affaiblit sous l'influence de la protection des droits de l'homme dans le système européen. Le présent mémoire a pour but de déterminer les conditions imposées aux autorités étatiques par la Cour européenne des droits de l'homme en vue d'assurer l'exercice efficace du droit à des élections libres. Ensuite, il analysera les effets de ces conditions sur la souveraineté des États parties à la Convention européenne des droits de l'homme. Notre étude s'intéresse, dans un premier temps, à l'examen du principe de la souveraineté de l'État et de son évolution progressive sous l'influence des droits de l'homme. Dans un deuxième temps, elle présentera le droit à des élections libres et ses manifestations théoriques et jurisprudentielles. L'étude des affaires tranchées par la Cour européenne permettra de remarquer que la déférence qui est accordée à la souveraineté des États s'accompagne d'une certaine limitation de la marge d'appréciation des autorités étatiques en cas de privation de l'exercice efficace du droit à des élections libres. Ensuite, les acquis théoriques et conceptuels seront appliqués à l'étude des restrictions électorales relevant des mesures législatives, administratives et judiciaires des États ainsi que des conditions imposées par la Cour européenne. À cet égard, l'analyse de ces conditions nous permettra de saisir l'étendue de la limitation de la liberté d'action des États en matière électorale. Cette recension analytique nous permettra de conclure que le mécanisme de contrôle de la Cour européenne entraîne de multiples effets limitatifs sur la souveraineté des États.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La schizophrénie est une maladie psychiatrique grave qui affecte approximativement 1 % de la population. Il est clairement établi que la maladie possède une composante génétique très importante, mais jusqu’à présent, les études ont été limitées au niveau de l’identification de facteurs génétiques spécifiquement liés à la maladie. Avec l’avènement des nouvelles avancées technologiques dans le domaine du séquençage de l’ADN, il est maintenant possible d’effectuer des études sur un type de variation génétique jusqu’à présent laissé pour compte : les mutations de novo, c.-à-d. les nouvelles mutations non transmises de manière mendélienne par les parents. Ces mutations peuvent avoir deux origines distinctes : une origine germinale au niveau des gamètes chez les parents ou une origine somatique, donc au niveau embryonnaire directement chez l’individu. L’objectif général de la présente recherche est de mieux caractériser les mutations de novo dans la schizophrénie. Comme le rôle de ces variations est peu connu, il sera également nécessaire de les étudier dans un contexte global au niveau de la population humaine. La première partie du projet consiste en une analyse exhaustive des mutations de novo dans la partie codante (exome) de patients atteints de schizophrénie. Nous avons pu constater que non seulement le taux de mutations était plus élevé qu’attendu, mais nous avons également été en mesure de relever un nombre anormalement élevé de mutations non-sens, ce qui suggère un profil pathogénique. Ainsi, nous avons pu fortement suggérer que les mutations de novo sont des actrices importantes dans le mécanisme génétique de la schizophrénie. La deuxième partie du projet porte directement sur les gènes identifiés lors de la première partie. Nous avons séquencé ces gènes dans une plus grande cohorte de cas et de contrôles afin d’établir le profil des variations rares pour ces gènes. Nous avons ainsi conclu que l’ensemble des gènes identifiés par les études de mutations de novo possède un profil pathogénique, ce qui permet d’établir que la plupart de ces gènes ont un rôle réel dans la maladie et ne sont pas des artéfacts expérimentaux. De plus, nous avons pu établir une association directe avec quelques gènes qui montrent un profil aberrant de variations rares. La troisième partie du projet se concentre sur l’effet de l’âge paternel sur le taux de mutations de novo. En effet, pour la schizophrénie, il est démontré que l’âge du père est un facteur de risque important. Ainsi, nous avons tenté de caractériser l’effet de l’âge du père chez des patients en santé. Nous avons observé une grande corrélation entre l’âge du père et le taux de mutations germinales et nous avons ainsi pu répertorier certaines zones avec un grand nombre de mutations de novo, ce qui suggère l’existence de zone chaude pour les mutations. Nos résultats ont été parmi les premiers impliquant directement les mutations de novo dans le mécanisme génétique de la schizophrénie. Ils permettent de jeter un nouveau regard sur les réseaux biologiques à l’origine de la schizophrénie en mettant sous les projecteurs un type de variations génétiques longtemps laissé pour compte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Depuis le début des années 1990, la recherche sur le développement régional a pris une importance considérable dans les disciplines de l’économie et de la géographie dans la plupart des pays. De nombreuses études ont été consacrées à ce sujet et l’on constate une approche analytique de plus en plus sophistiquée. Que les économies pauvres ont tendance à converger vers les pays riches, ou bien à diverger au fil du temps est une question qui a attiré l'attention des décideurs et des universitaires depuis quelques décennies. Convergence ou de divergence économique est un sujet d'intérêt et de débat, non seulement pour valider ou non les deux modèles principaux de croissance qui sont considérés comme concurrent (l’approche néo-classique et celle des approches de croissance endogène), mais aussi pour ses implications pour les publiques politiques. En se basant sur une analyse des politiques de développement régional et des analyses statistiques de la convergence et des disparités régionales, les objectifs de cette thèse sont de tenter de fournir une explication des différents processus et des modèles de développement économique régional poursuivis dans le cas de territoires immenses en utilisant le Canada et la Chine comme études de cas, d'entreprendre une analyse des différents facteurs et des forces motrices qui sous-tendent le développement régional dans ces deux pays, et d'explorer à la fois les réussites et les échecs apparents dans les politiques de développement régional en comparant et contrastant les expériences de développement régional et les modèles de ces deux pays. A fin d'atteindre cet objectif, la recherche utilise une approche multi-scalaire et des méthodes de mesure multidimensionnelle dans le cadre des analyses sur les disparités « régionales » entre les macro régions (sous-ensembles de provinces) des deux pays, des provinces et des régions urbaines sélectionnées, dans le but ultime d’identifier des problèmes existants en termes de développement régional et de pouvoir proposer des solutions. Les étapes principales de la recherche sont : 1. La cueillette des données statistiques pour le Canada et la Chine (incluant les provinces de Québec et de Xinjiang) pour une gamme d’indicateurs (voir ci-dessous). 2. D’entreprendre une analyse de chaque dimension dans les deux juridictions: Population (p.ex. composition, structure, changement); Ressources (p. ex. utilisation, exploitation de l’énergie); Environnement (p.ex. la pollution); et le Développement socioéconomique (p.ex. le développement et la transformation des secteurs clé, et les modèles de développement rural et urbain), et les disparités changeantes par rapport à ces dimensions. 3. La définition d’une typologie de différents types de région en fonction de leurs trajectoires de développement, ce qui servira pour critiquer l’hypothèse centre-périphérie. 4. Le choix d’une région métropolitaine dans chaque juridiction (province). 5. D’entreprendre une analyse temporelle des événements clé (politiques, investissements) dans chaque région et les facteurs impliqués dans chaque événement, en utilisant l’information documentaire générale et des agences institutionnelles impliqués actuellement et dans un passée récent. Cette étude a tenté d'expliquer les schémas et les processus des deux économies, ainsi que la présentation d'études de cas qui illustrent et examinent les différences dans les deux économies à partir de l’échelle nationale jusqu’au niveau régional et provincial et aussi pour certaines zones urbaines. Cette étude a essayé de répondre aux questions de recherche comme: Est-il vrai que les pays avec des plus grandes territoires sont associés avec des plus grandes disparités interrégionales? Quel est le résultat des comparaisons entre pays développés et pays en développement? Quels sont les facteurs les plus importants dans le développement économique de vastes territoires dans les pays développés et pays en développement? Quel est le mécanisme de convergence et de divergence dans les pays développés et, respectivement, les pays en développement? Dans l'introduction à la thèse, le cadre général de l'étude est présenté, suivie dans le chapitre 1 d'une discussion sur les théories et les concepts utilisés dans la littérature théorique principale qui est pertinent à l'étude. Le chapitre 2 décrit la méthodologie de recherche. Le chapitre 3 présente une vue d'ensemble des politiques de développement économique régional et les programmes du Canada et de la Chine dans des périodes différentes à différentes échelles. Au chapitre 4, la convergence des deux pays à l'échelle nationale et la convergence provinciale pour chaque pays sont examinés en utilisant différentes méthodes de mesure telles que les méthodes traditionnelles, la convergence bêta et la convergence sigma. Dans le chapitre le plus complexe, le chapitre 5, les analyses comparatives sont présentées à l'aide de données statistiques, à partir des analyses des cas régionaux et provinciaux retenus des deux pays. Au chapitre 6, ces dispositions sont complétées par une analyse des régions urbaines choisies, qui permet également des aperçus sur les régions les plus périphériques. Dans la recherche proposée pour cette thèse, la politique, la population, le revenu, l'emploi, la composition industrielle, l'investissement, le commerce et le facteur de la migration sont également pris en compte comme facteurs importants de l'analyse régionale compte tenu de la superficie du territoire des deux pays et les différences de population entre eux. Cette thèse a évalué dans quelle mesure les politiques gouvernementales ont réussi à induire la convergence régionale ou ont encore ont creusé davantage les disparités régionales, ce qui implique nécessairement une évaluation de la durabilité des patrons et des programmes de développement régional. Cette étude a également mis l'accent sur les disparités régionales et la politique de développement régional, les comparaisons entre pays, pour mesurer la convergence entre les pays et entre les régions, y compris l'analyse spatiale, d'identifier les facteurs les plus actifs tels que la population, les ressources, la politique, l'urbanisation, les migrations, l'ouverture économique et leurs différents rôles dans le développement économique de ces grands territoires (au Canada et Chine). Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionales et les disparités régionales dans les deux économies. L'approche adoptée a révélé les différentes mosaïques complexes du développement régional dans les deux pays. Les résultats de cette étude ont démontré que la disparité en termes de revenu régional est une réalité dans chaque zone géographique, et que les causes sont nombreuses et complexes. Les deux économies ont certains parallèles dans la mise en œuvre des politiques de développement économique régional, mais il existe des différences importantes aussi et elles se sont développées à différentes vitesses. Les deux économies se sont développées depuis la Seconde Guerre mondiale, mais la Chine a connu une croissance rapide que le Canada comme témoignent de nombreux indicateurs depuis 1980. Cependant, la Chine est maintenant confrontée à un certain nombre de problèmes économiques et sociaux, y compris les disparités régionales marquées, un fossé toujours croissant entre les revenus ruraux et urbains, une population vieillissante, le chômage, la pauvreté et la dégradation rapide de l'environnement avec toujours plus de demandes en énergie. Le développement économique régional en Chine est plus déséquilibré. Le Canada accuse un degré de disparités régionales et provinciales moins important que la Chine. Dans les cas provinciaux, il existe d'importantes différences et de disparités dans la structure économique et spatiale du Québec et du Xinjiang. Les disparités infra provinciales sont plus grandes que celles à l’échelle des provinces et des grandes régions (des sous-ensembles de provinces). Les mécanismes de convergence et de divergence dans les deux pays sont différents. Les résultats empiriques et les processus de convergence et de divergence offrent un cadre intéressant pour l'examen de la trajectoire de développement régionale et les disparités régionales dans les deux économies. Cette étude démontre également que l'urbanisation (les métropoles et les villes) s’avère être le facteur le plus actif et contribue à l'économie régionale dans ces grands territoires. L'ouverture a joué un rôle important dans les économies des deux pays. La migration est un facteur majeur dans la stimulation de l'économie des deux pays mais de façons différentes. Les résultats empiriques démontrent que les disparités régionales ne peuvent pas être évitées et elles existent presque partout. Il n'y a pas une formule universelle et de politiques spécifiques sont de mise pour chaque région. Mais il semble possible pour les décideurs politiques nationaux et régionaux d’essayer de maintenir l'écart à une échelle raisonnable pour éviter l'instabilité sociale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Vidéos et images des résultats disponible à : http://www.iro.umontreal.ca/labs/infographie/theses/fatnasss/

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectifs. L’objectif de ce mémoire est de parfaire nos connaissances quant à l’effet des actions policières sur les collisions routières au Québec. Ultimement, ce mémoire permettra d’identifier les conditions nécessaires pour que l’action policière influe sur les comportements des automobilistes. Pour se faire, deux études de cas sont employées. Dans un premier temps, nous évaluons l’effet d’un relâchement d’environ 60 % dans l’émission de constats d’infraction par les policiers de la ville de Québec sur les collisions avec blessures. Dans cet article, nous distinguons également les effets respectifs des constats d’infraction, des interceptions policières sans constat et des médias. Dans un second temps, nous évaluons l’impact d’une stratégie de sécurité routière mise en place conjointement par l’Association des directeurs de police du Québec (ADPQ) et la Société de l’assurance automobile du Québec (SAAQ). Dans les deux cas, un changement important est survenu dans l’émission de constats d’infraction émis en vertu du Code de la sécurité routière (CSR). Méthodologie. Afin d’évaluer l’effet de ces deux stratégies, nous avons agrégé les données sur les collisions et infractions au CSR sur une base mensuelle. Ces données proviennent principalement des rapports de collisions et des constats d’infraction remplis par les policiers et transmis à la SAAQ. Dans l’ensemble, nous avons utilisé un devis quasi-expérimental, soit celui des séries chronologiques interrompues. Résultats. Les résultats des deux articles démontrent que les policiers sont des acteurs clés en matière de sécurité routière. Les collisions avec blessures sont affectées par les fluctuations de leurs activités. La première série d’analyses établit qu’un relâchement d’environ 60 % dans le nombre de constats émis par les policiers se traduit par une hausse d’environ 10 % des collisions avec blessures, ce qui correspond à 15 collisions avec blessures supplémentaires par mois sur le territoire du Service de police de la ville de Québec. De plus, nos résultats montrent qu’une interception policière suivie d’un avertissement verbal n’est pas suffisante pour prévenir les collisions. De même, l’effet observé n’est pas attribuable aux médias. La deuxième série d’analyse montre que la stratégie conjointe de l’ADPQ et de la SAAQ, caractérisée par une hausse des constats émis et des campagnes médiatiques, fut suivie de baisses variant entre 14 et 36 % des collisions avec blessures graves. Interprétation. Les résultats démontrent que les actions policières ont une influence sur le bilan routier. Par contre, avant d’influer sur le comportement des automobilistes, certaines conditions doivent être respectées. Premièrement, l’intensité des contrôles policiers doit être suffisamment modifiée par rapport à son niveau initial. Deuxièmement, que ce soit une hausse ou une baisse, ce niveau doit être maintenu sur une période relativement longue (entre 12 et 24 mois environ) pour que les automobilistes soient exposés au message pénal et qu’ils considèrent ce changement dans le niveau de répression comme étant crédible. Troisièmement, l’émission de constats est un élément clé; la simple présence policière n’est pas suffisante pour prévenir les collisions. Enfin, les campagnes de sensibilisation semblent importantes, mais d’autres études sont nécessaires pour mieux apprécier leur rôle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La thérapie cellulaire est une avenue pleine de promesses pour la régénération myocardique, par le remplacement du tissu nécrosé, ou en prévenant l'apoptose du myocarde survivant, ou encore par l'amélioration de la néovascularisation. Les cellules souches de la moelle osseuse (CSMO) expriment des marqueurs cardiaques in vitro quand elles sont exposées à des inducteurs. Pour cette raison, elles ont été utilisées dans la thérapie cellulaire de l'infarctus au myocarde dans des études pre-cliniques et cliniques. Récemment, il a été soulevé de possibles effets bénéfiques de l'ocytocine (OT) lors d’infarctus. Ainsi, l’OT est un inducteur de différenciation cardiaque des cellules souches embryonnaires, et cette différenciation est véhiculée par la voie de signalisation du monoxyde d’azote (NO)-guanylyl cyclase soluble. Toutefois, des données pharmacocinétiques de l’OT lui attribue un profil non linéaire et celui-ci pourrait expliquer les effets pharmacodynamiques controversés, rapportés dans la lttérature. Les objectifs de ce programme doctoral étaient les suivants : 1) Caractériser le profil pharmacocinétique de différents schémas posologiques d'OT chez le porc, en développant une modélisation pharmacocinétique / pharmacodynamique plus adaptée à intégrer les effets biologiques (rénaux, cardiovasculaires) observés. 2) Isoler, différencier et trouver le temps optimal d’induction de la différenciation pour les CSMO porcines (CSMOp), sur la base de l'expression des facteurs de transcription et des protéines structurales cardiaques retrouvées aux différents passages. 3) Induire et quantifier la différenciation cardiaque par l’OT sur les CSMOp. 4) Vérifier le rôle du NO dans cette différenciation cardiaque sur les CSMOp. Nous avons constaté que le profil pharmacocinétique de l’OT est mieux expliqué par le modèle connu comme target-mediated drug disposition (TMDD), parce que la durée du séjour de l’OT dans l’organisme dépend de sa capacité de liaison à son récepteur, ainsi que de son élimination (métabolisme). D'ailleurs, nous avons constaté que la différenciation cardiomyogénique des CSMOp médiée par l’OT devrait être induite pendant les premiers passages, parce que le nombre de passages modifie le profile phénotypique des CSMOp, ainsi que leur potentiel de différenciation. Nous avons observé que l’OT est un inducteur de la différenciation cardiomyogénique des CSMOp, parce que les cellules induites par l’OT expriment des marqueurs cardiaques, et l'expression de protéines cardiaques spécifiques a été plus abondante dans les cellules traitées à l’OT en comparaison aux cellules traitées avec la 5-azacytidine, qui a été largement utilisée comme inducteur de différenciation cardiaque des cellules souches adultes. Aussi, l’OT a causé la prolifération des CMSOp. Finalement, nous avons observé que l'inhibition de la voie de signalisation du NO affecte de manière significative l'expression des protéines cardiaques spécifiques. En conclusion, ces études précisent un potentiel certain de l’OT dans le cadre de la thérapie cellulaire cardiomyogénique à base de cellules souches adultes, mais soulignent que son utilisation requerra de la prudence et un approfondissement des connaissances.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Selon plusieurs auteurs, l’intelligence générale et les traits de personnalité sont des construits fondamentaux nécessaires à l’adaptation psychosociale des individus. Bien que plusieurs études menées à partir d’échantillons d’adultes aient démontré des liens significatifs entre ces deux construits, peu d’entre elles ont tenté de vérifier si ces relations pouvaient être observées aussi chez les adolescents. De plus, un nombre très restreint d’études ont étudié la question de savoir si les relations entre l’intelligence générale et les traits de personnalité étaient significatives de façon prospective avec un intervalle de temps entre les évaluations. Enfin, les études disponibles ne permettent pas de déterminer si les relations entre l’intelligence générale et les traits de personnalité sont différentes selon le sexe. La présente étude visait à combler ces vides. Les objectifs étaient, d’une part, de déterminer s’il existe des relations prédictives concurrentes et prospectives entre l’intelligence générale et les traits de personnalité chez les adolescents et, d’autre part, de vérifier si ces relations sont différentes entre les garçons et les filles. Les données utilisées proviennent de l’étude longitudinale de la Stratégie d’intervention agir autrement (SIAA). Un large échantillon d’adolescents évalués une première fois en secondaire un et réévalués à nouveau quatre ans plus tard en secondaire cinq a été employé. À la première vague de collecte de données, seule l’intelligence générale a été évaluée, tandis qu’à la deuxième vague, autant l’intelligence générale que les traits de personnalité l’ont été. La modélisation par équations structurales sur des variables latentes a été utilisée pour tester les différentes hypothèses de recherche. Les résultats ont démontré que, sur le plan concurrent, l’intelligence générale et tous les traits de personnalité considérés sont reliés significativement de façon positive, ce qui va partiellement à l’encontre des données obtenues à partir des échantillons d’adultes. Sur le plan prospectif, les résultats ont confirmé que les corrélations diminuent avec le temps, et ce, pour presque tous les traits étudiés. Finalement, les modèles d’équations structurales multi-groupes ont confirmé la présence de différences significatives entre les garçons et les filles pour certains traits de personnalité. Dans l’ensemble, bien que plusieurs résultats de la présente étude obtenus à partir d’un échantillon d’adolescents soient conformes à ceux observés auprès d’échantillons d’adultes, certaines différences intéressantes sont observées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Actinobacillus pleuropneumoniae est l’agent étiologique de la pleuropneumonie porcine. La bactérie se transmet par voies aériennes et contacts directs. Plusieurs facteurs de virulence ont été identifiés, nommément les polysaccharides capsulaires, les lipopolysaccharide, les exotoxines ApxI à IV et de nombreux mécanismes d’acquisition du fer. Aucun vaccin efficace contre tous les sérotypes de la bactérie n’a encore été élaboré. Afin de mieux comprendre de quelle façon A. pleuropneumoniae régule la transcription de ses nombreux facteurs de virulence et de découvrir de nouvelles cibles potentielles pour l’élaboration de vaccins efficaces, le profil transcriptomique de la bactérie a été étudié dans des conditions simulant l’infection ainsi qu’à la suite d’une infection naturelle aiguë chez l’animal. Des biopuces de première et de seconde génération (AppChip1 et AppChip2) comportant respectivement 2025 cadres de lecture ouverts (ORF) de la version préliminaire du génome d’A. pleuropneumoniae sérotype 5b souche L20 et 2033 ORF de la version finale annotée du même génome ont été utilisées. Dans un premier temps, des expériences réalisées dans des conditions de concentration restreinte en fer ont permis d’identifier 210 gènes différentiellement exprimés, dont 92 étaient surexprimés. Plusieurs nouveaux mécanismes d’acquisition du fer ont pu être identifiés, incluant un système homologue au système YfeABCD de Yersinia pestis, impliqué dans l’acquisition du fer chélaté, ainsi que des gènes homologues aux composantes du système HmbR de Neisseria meningitidis impliqué dans l’acquisition du fer à partir de l’hémoglobine. Dans des conditions de culture permettant la formation de biofilms, les gènes tadC et tadD d’un opéron tad (« tight adherence locus ») putatif, les gènes pgaBC impliqués dans la synthèse d’un polysaccharide de la matrice du biofilm ainsi que deux gènes présentant de fortes homologies avec un gène codant pour l’adhésine auto-transporteur Hsf retrouvée chez Haemophilus influenzae ont montré une surexpression significative. Plusieurs de ces gènes ont également été retrouvés lors d’expériences réalisées avec des cellules épithéliales d’origine pulmonaire en culture, qui ont permis d’identifier 170 gènes différentiellement exprimés après la croissance planctonique au-dessus des cellules, et 131 autres suite à l’adhésion à ces cellules. Parmis les gènes surexprimés, les gènes tadB et rcpA de l’opéron tad putatif, les gènes pgaBC ainsi que le gène codant pour l’homologue d’Hsf ont été retrouvés. En présence de liquide de lavage broncho-alvéolaire (BALF), 156 gènes ont montré un profil d’expression modifié, et le gène apxIVA, identifié comme étant surexprimé, a pu être détecté pour la première fois dans des conditions de croissance in vitro. Finalement, des expériences visant à déterminer les gènes utilisés directement chez l’animal en phase aiguë de la pleuropneumonie porcine ont permis d’identifier 150 gènes qui étaient différentiellement exprimés. En plus d’identifier des gènes d’un possible opéron codant pour un fimbriae de type IV, 3 des 72 gènes surexprimés sont conservés chez tous les sérotypes d’A. pleuropneumoniae et codent pour des protéines ou lipoprotéines de surface. Nos expériences ont permis d’identifier plusieurs nouveaux facteurs de virulence potentiels chez A. pleuropneumoniae ainsi que plusieurs nouvelles cibles potentielles pour l’élaboration de vaccins efficaces contre tous les sérotypes.