354 resultados para Mesure du temps
Resumo:
Dans le domaine des relations industrielles, on a vu apparaître, ces dernières années, différents changements au niveau des relations du travail, notamment en matière de négociation collective. En effet, de nouvelles formes de négociation ont vu le jour en réponse aux changements qui se sont produits sur le marché du travail. De façon plus précise, les théoriciens se sont penchés, d’une part, sur des méthodes de négociation moins conflictuelles et les acteurs concernés par la négociation collective ont su les mettre en pratique, d’autre part. Cependant, bien que certains aient tenté de substituer ces méthodes plus coopératives à la négociation traditionnelle de façon intégrale, les théoriciens et praticiens se sont aperçus qu’il était plutôt difficile de les adopter à l’état pur et ce, de façon alternative à la négociation traditionnelle. Afin d’optimiser les gains mutuels lors de la négociation d’une entente, les négociateurs vont plutôt opter pour un usage combiné des méthodes plus traditionnelles et des nouvelles formes dites plus coopératives; on parle alors de négociation mixte. Toutefois, peu d’études portant sur la négociation mixte ont été conduites. Nous croyons néanmoins que cette forme de négociation est plus appropriée, notamment en raison de la nature des enjeux traités à l’occasion d’une négociation collective. S’insérant dans ce contexte, l’objet de notre recherche est donc l’étude, par l’entremise d’un cas particulier, de la négociation mixte. De façon plus précise, nous cherchons à évaluer la méthode de négociation adoptée lors de la négociation collective ayant eu lieu entre le Centre de la petite enfance Pomme Soleil (CPE) et le Syndicat des intervenantes en petite enfance de Montréal (SIPEM) – CSQ en 2005. Afin d’y parvenir, nous avons vérifié les propositions et hypothèses suivantes : (1) la nature du climat des négociations précédentes a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (2) la nature du climat des relations industrielles a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (3) le passage du temps a un effet de transition sur la méthode de négociation de type mixte qui manifeste une dominante intégrative dans les étapes initiales de la négociation et une dominante distributive dans les étapes finales, (4) les négociateurs ayant reçu une formation à la négociation basée sur la résolution de problèmes ou basée sur les intérêts adoptent une méthode de négociation de type mixte à dominante intégrative, (5) l’expérience des négociateurs patronal et syndical a une influence sur la méthode de négociation de type mixte adoptée par les parties au cours de la négociation de la convention collective, (6) la stratégie de négociation initiale adoptée par les parties a une influence sur la méthode de négociation de type mixte au cours de la négociation de la convention collective et (7) la négociation des clauses à incidence pécuniaire donne lieu à une méthode de négociation de type mixte à dominante distributive. Grâce aux résultats que nous avons recueillis par l’entremise de l’observation de la négociation collective entre le CPE Pomme Soleil et le SIPEM, mais principalement par le biais des entrevues, nous sommes en mesure d’affirmer que, conformément à notre question de recherche, la négociation fut mixte, à dominante intégrative. Cependant, la question salariale, bien qu’elle ne fut pas abordée à la table de négociation mais avec le gouvernement provincial, prit une tangente distributive. En ce sens, nous pouvons dire que la négociation fut mixte et ce, de façon séquentielle.
Resumo:
L’évaluation de la douleur chez les oiseaux est difficile, puisque la plupart se comportent comme des proies et ont tendance à masquer tout signe extérieur de douleur. Les doses et les drogues utilisées pour traiter la douleur des oiseaux sont la plupart du temps basées sur une extrapolation d’autres espèces, ainsi que sur l’expérience clinique. Peu d’études de pharmacocinétique, d’efficacité et de toxicité sont disponibles dans la littérature. La plupart des études rapportées utilisent des stimuli nociceptifs éloignés des douleurs cliniques, comme les stimuli électriques ou thermiques, qui sont difficilement extrapolables à des situations rencontrées en pratique. L’objectif de notre projet était d’évaluer les effets analgésiques de deux doses de meloxicam chez le pigeon à l’aide d‘un modèle de fracture du fémur. La douleur post-opératoire a été évaluée pendant les quatre premiers jours suivant la chirurgie par trois méthodes : le suivi du poids porté sur la patte opérée comparativement à l’autre patte, quatre différentes échelles descriptives de douleur et la réalisation d’éthogrammes à l’aide d’enregistrements vidéo. L’administration de 0,5 mg/kg PO q12h de meloxicam n’a pas permis de réduire significativement les indicateurs de douleur mesurés comparativement à un groupe témoin recevant de la saline. Les pigeons ayant reçu 2 mg/kg PO q12h de meloxicam ont montré une réduction significative des indicateurs de douleur mesurés par les différentes méthodes. Nos résultats suggèrent que l’administration de 2 mg/kg PO q12h aux pigeons suite à une chirurgie orthopédique procure une analgésie supérieure aux doses actuellement recommandées dans la littérature.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne (Paris IV), sous la direction de M. Michel Delon.
Resumo:
Tout au long de la vie, le cerveau développe des représentations de son environnement permettant à l’individu d’en tirer meilleur profit. Comment ces représentations se développent-elles pendant la quête de récompenses demeure un mystère. Il est raisonnable de penser que le cortex est le siège de ces représentations et que les ganglions de la base jouent un rôle important dans la maximisation des récompenses. En particulier, les neurones dopaminergiques semblent coder un signal d’erreur de prédiction de récompense. Cette thèse étudie le problème en construisant, à l’aide de l’apprentissage machine, un modèle informatique intégrant de nombreuses évidences neurologiques. Après une introduction au cadre mathématique et à quelques algorithmes de l’apprentissage machine, un survol de l’apprentissage en psychologie et en neuroscience et une revue des modèles de l’apprentissage dans les ganglions de la base, la thèse comporte trois articles. Le premier montre qu’il est possible d’apprendre à maximiser ses récompenses tout en développant de meilleures représentations des entrées. Le second article porte sur l'important problème toujours non résolu de la représentation du temps. Il démontre qu’une représentation du temps peut être acquise automatiquement dans un réseau de neurones artificiels faisant office de mémoire de travail. La représentation développée par le modèle ressemble beaucoup à l’activité de neurones corticaux dans des tâches similaires. De plus, le modèle montre que l’utilisation du signal d’erreur de récompense peut accélérer la construction de ces représentations temporelles. Finalement, il montre qu’une telle représentation acquise automatiquement dans le cortex peut fournir l’information nécessaire aux ganglions de la base pour expliquer le signal dopaminergique. Enfin, le troisième article évalue le pouvoir explicatif et prédictif du modèle sur différentes situations comme la présence ou l’absence d’un stimulus (conditionnement classique ou de trace) pendant l’attente de la récompense. En plus de faire des prédictions très intéressantes en lien avec la littérature sur les intervalles de temps, l’article révèle certaines lacunes du modèle qui devront être améliorées. Bref, cette thèse étend les modèles actuels de l’apprentissage des ganglions de la base et du système dopaminergique au développement concurrent de représentations temporelles dans le cortex et aux interactions de ces deux structures.
Resumo:
On note de nos jours une intensification, aux États-Unis, de l’usage de la race en santé publique, une idée qui est parfois rejetée dans la mesure où elle est associée à des pratiques controversées. Les races sont vues, dans ce contexte, comme le produit du racisme, une technologie du pouvoir de l’État moderne qui a consisté à fragmenter l’humanité pour permettre les colonisations. C'est ainsi que la race a été prise en charge par le discours pour marquer la différence, discours qui est constitué d'un ensemble hétérogène de dispositifs, des institutions, des énoncés scientifiques, des normes et des règles. Le racisme s’est développé en parallèle avec l'affirmation d'un pouvoir sur la vie visant à assurer la gestion des corps et des populations, notamment par le biais des pratiques de santé publique. Cette thèse s'appuie sur une étude ethnographique réalisée sur un corpus de documents de la santé publique parus aux États-Unis et issus de bureaux fédéraux et d’une importante revue spécialisée dans le domaine sanitaire, et qui ont été publiés entre 2001 et 2009. Cette étude a analysé la manière dont la race est représentée, produite comme objet de connaissance, et régulée par les pratiques discursives dans ces documents. Les résultats confirment que le discours sur la race varie au cours du temps. Toutefois, les résultats indiquent la relative permanence en santé publique d'un régime racialisé de représentation qui consiste à identifier, à situer et à opposer les sujets et les groupes à partir de labels standardisés. Ce régime est composé d'un ensemble de pratiques représentationnelles qui, couplées aux techniques disciplinaires et à l’idée de culture, aboutissent à la caractérisation et à la formation d’objets racialisés et à des stéréotypes. De plus, cet ensemble d’opérations qui fabrique la racialisation, a tendance, avec la sanitarisation et la culturalisation, à naturaliser la différence, à reproduire l’ordre symbolique et à constituer les identités raciales. Par ailleurs, la racialisation apparaît tiraillée entre un pouvoir sur la vie et un pouvoir sur la mort. Enfin, cette étude propose une alternative postraciale qui envisage la constitution des groupes humains de manière fluide et déterritorialisée.
Resumo:
La vision fournit des informations essentielles sur la surface de marche, ainsi que sur la taille, la forme et la position d’obstacles potentiels dans notre environnement. Dans le cas d’un prédateur, la vision fournit également des informations sur la vitesse d’une proie potentielle. Les mécanismes neuronaux impliqués dans l’exécution des modifications de la marche sous guidage visuel sont relativement bien connus, mais ceux impliqués dans la planification de ces modifications de la marche sont peu étudiés. Le cortex pariétal postérieur (CPP) semble être un candidat approprié si l’on considère les propriétés du CPP lors des mouvements d’atteinte vers une cible. Le but des présents travaux est de déterminer la contribution du CPP au contrôle de la locomotion sous guidage visuel. La première étude présentée dans cette thèse a pour hypothèse que le CPP du chat est impliqué dans la planification du placement précis du pied lors des modifications volontaires de la marche. Nous avons entraîné les animaux à enjamber des obstacles en mouvement attachés à la ceinture d’un tapis roulant. Afin d’augmenter la nécessité d’intégrer les informations visuelles et proprioceptives, nous avons dissocié la vitesse des obstacles de celle du tapis roulant. Nous avons observé que plus la vision devient critique pour la tâche, plus les déficits sont importants. Notre analyse démontre que ceux-ci résultent d’un placement inapproprié du pied dans le cycle de marche précédant l’enjambement de l’obstacle. Ceci suggère que le CPP est impliqué dans la planification du placement précis du pied pendant la locomotion sous guidage visuel. La vision directe est disponible lors de la modification de l’activité des membres antérieurs, mais n’est plus disponible lorsque l’obstacle passe sous le corps. Par conséquent, la modification de l’activité des membres postérieurs doit être basée sur l’information gardée en mémoire et coordonnée avec celle des membres antérieurs. Notre deuxième étude a pour but de caractériser les mécanismes neuronaux responsables de cette coordination. Nous avons proposé que le CPP soit impliqué dans la coordination des membres antérieurs et postérieurs lors de l’enjambement d’obstacles. Pour tester cette hypothèse, nous avons enregistré l’activité de neurones de l’aire 5 pendant la même tâche. Nous avons découvert deux populations: une qui décharge lors du passage de l’obstacle entre les membres antérieurs et postérieurs et une autre qui décharge lors du passage de l’obstacle par les membres postérieurs. Dans la tâche de dissociation visuelle, la décharge est modifiée en fonction du temps de passage de l’obstacle sous le corps et reflète la modification du couplage entre les membres lors du changement dans la stratégie d’enjambement. De plus, ces mêmes neurones maintiennent une décharge soutenue lorsqu’un obstacle fixe se trouve entre les membres antérieurs et postérieurs ou les deux membres postérieurs (limite testée : 1-2min). Ces neurones pourraient être responsables de l’emmagasinage à plus long terme des caractéristiques d’un obstacle pour le guidage des mouvements des membres postérieurs. Nos résultats suggèrent que le CPP est impliqué dans l’intégration des informations visuelles et proprioceptives pour la planification du placement précis du pied devant un obstacle. Le patron de décharge de nos populations neuronales suggère qu’il encode également l’information temporelle et spatiale concernant la vitesse et la position de l’obstacle afin de coordonner l’activité des quatre membres pendant la tâche. Finalement, nous proposons qu’une des fonctions du CPP soit d’estimer la position des membres par rapport à l’obstacle en mouvement.
Resumo:
Les études portant sur l’adéquation entre le niveau de formation des individus et celui requis pour l’emploi occupé se sont peu attardées à la dimension temporelle de cette relation. De plus, peu ont abordé la question chez les immigrants canadiens, et de surcroît chez les travailleurs immigrants sélectionnés du Québec. Une seule étude abordant le sujet sous un angle longitudinal a été recensée et se limite à l’accès des travailleurs qualifiés à un premier emploi correspondant à leur niveau de compétences. Cette thèse cherche à aller au-delà des premières transitions sur le marché du travail et vise à mieux comprendre l’évolution de la relation formation-emploi au fil du temps d’établissement. Plus spécifiquement, l’objectif y est de mieux circonscrire l’évolution de la relation formation-emploi au cours des premières années suivant l’arrivée du migrant, d’en identifier les déterminants, mais également de voir l’impact de cette relation sur d’autres dimensions de la qualité de l’emploi : le statut socioéconomique et le salaire. Afin de mieux comprendre les déterminants de l’occupation d’emplois correspondant à son niveau de compétences et d’emplois pour lesquels l’individu est suréduqué ainsi que leur impact respectif sur le statut d’emploi et le salaire, cette thèse considère l’apport de théories sociologiques et économiques. D’une part, différentes théories s’opposent quant au caractère temporaire ou permanent de la suréducation. Ce faisant, elles soulèvent l’impact potentiel des expériences en emploi passées sur le parcours futur et la nécessité d’une vision longitudinale de l’insertion professionnelle. D’autre part, d’autres approches soulèvent, en plus des déterminants individuels, le rôle du contexte social et institutionnel dans lequel l’individu s’insère. Ces différentes approches trouvent écho dans la perspective empirique du parcours de vie qui permet de considérer l’interrelation entre des facteurs micro, méso et macro sociaux et de se représenter les parcours biographiques au fil du temps. L'Enquête sur les travailleurs sélectionnés (ETS) a rendu possible l'étude des parcours en emploi de cette catégorie d'immigrant sélectionnée en fonction de son potentiel d'insertion à la société québécoise dans la mesure où celle-ci comporte à la fois des données administratives sur la situation prémigratoire des travailleurs immigrants, de même que de l'information datée sur chacun des emplois occupés après la migration. L’analyse a été effectuée en trois temps soit : une description du lien entre le niveau de formation et l’emploi, l’étude des déterminants de la relation formation-emploi et finalement, l’étude des salaires et effet de la relation formation-emploi sur ceux-ci. Chacun de ces trois volets est présenté sous forme d’articles soumis pour publication. Les résultats montrent que la proportion d’individus occupant des emplois correspondant à leur niveau de compétences augmente avec le temps passé dans la société d’accueil. Cependant, la suréducation demeure un phénomène présent chez la catégorie des travailleurs immigrants sélectionnés. À ce titre, les premières expériences en emploi sont déterminantes dans la mesure où elles ont un impact non seulement sur l’évolution de la relation formation-emploi, mais également sur les salaires et les statuts des emplois décrochés par les nouveaux arrivants. La grille de sélection, élément central du processus par lequel un candidat peut devenir immigrant au Québec, à travers les attributs des individus qu’elle retient, contribue aussi à façonner les parcours en emploi. La région de provenance des immigrants distingue également les immigrants entre eux, toutes choses égales par ailleurs. La majorité des groupes sont désavantagés lorsqu’ils sont comparés à leurs compatriotes de l’Europe de l’Ouest et des États-Unis, et ce désavantage perdure au fil des années. Cette thèse a démontré que l’insertion professionnelle et la relation formation-emploi sont des sujets se devant d’être abordés sous un angle longitudinal pour bien saisir la complexité des processus à l’œuvre. Au niveau social, les analyses auront permis de montrer l’importance de se pencher sur les services offerts aux immigrants pour les aider dans leur insertion professionnelle, surtout dans un contexte où des départs à la retraite massifs et des pénuries de main-d'œuvre qualifiée sont à prévoir.
Resumo:
Dans l’optique que la télésurveillance est devenue un outil indispensable en matière de sécurité, notre projet de recherche porte sur la manière dont elle est utilisée à des fins de gestion de l’ordre dans une propriété privée de masse (propriété privée que le public général est invité à visiter). Il s’agit de comprendre le rôle du centre de contrôle de télésurveillance dans la gestion d’un centre commercial. De façon plus spécifique, nous voulons décrire le fonctionnement et les objectifs des technologies de télésurveillance et les méthodes de contrôle utilisées dans un espace privé de masse. Nous voulons décrire les pratiques des agents affectés au centre de contrôle de télésurveillance ainsi que leur perception des notions de sécurité et d’ordre, avec une attention particulière accordée à la surveillance des lieux. Le site que nous avons sélectionné est un édifice situé en plein cœur du centre-ville de Montréal, où nous retrouvons des galeries commerciales abritant plusieurs restaurants et boutiques. Afin d’atteindre nos objectifs de recherche, nous avons fait plus de 150 heures d’observation participante dans le centre de contrôle de télésurveillance. Nos observations étaient complétées par des entretiens spontanés, afin de bien comprendre la dynamique et les interactions entre les agents, les autres employés et les visiteurs. Ainsi, notre matériel empirique est surtout de nature qualitative, mais nous avons complété ces données avec une grille d’analyse quantitative permettant une analyse minutieuse de l’emploi du temps des agents de sécurité à l’aide d’un fichier informatisé. Nous sommes en mesure d’établir que la surveillance dans une propriété privée de masse vise, à biens des égards, la gestion de l’image. La sécurité proprement dite est reléguée au second plan, derrière tout ce qui est relatif au marketing et à l’encouragement à la consommation. De plus, nous avons constaté que les agents de sécurité dans de tels lieux servent surtout à répondre à des besoins organisationnels ponctuels, leur quotidien n’étant guidé par aucune mission globale. Quant au centre de contrôle de vidéosurveillance, nous pouvons affirmer que son rôle est de s’assurer que toutes les activités au centre se déroulent comme convenu par les gestionnaires de l’établissement.
Resumo:
Le principal rôle du corps calleux est d’assurer le transfert de l’information entre les hémisphères cérébraux. Du support empirique pour cette fonction provient d’études investiguant la communication interhémisphérique chez les individus à cerveau divisé (ICD). Des paradigmes expérimentaux exigeant une intégration interhémisphérique de l’information permettent de documenter certains signes de déconnexion calleuse chez ces individus. La présente thèse a investigué le transfert de l’information sous-tendant les phénomènes de gain de redondance (GR), de différence croisé– non-croisé (DCNC) et d’asynchronie bimanuelle chez les ICD et les individus normaux, et a ainsi contribué à préciser le rôle du corps calleux. Une première étude a comparé le GR des individus normaux et des ICD ayant subi une section partielle ou totale du corps calleux. Dans une tâche de détection, le GR consiste en la réduction des temps de réaction (TR) lorsque deux stimuli sont présentés plutôt qu’un seul. Typiquement, les ICD présentent un GR beaucoup plus grand (supra-GR) que celui des individus normaux (Reuter-Lorenz, Nozawa, Gazzaniga, & Hughes, 1995). Afin d’investiguer les conditions d’occurrence du supra-GR, nous avons évalué le GR en présentation interhémisphérique, intrahémisphérique et sur le méridien vertical, ainsi qu’avec des stimuli requérant une contribution corticale différente (luminance, couleur équiluminante ou mouvement). La présence d’un supra-GR chez les ICD partiels et totaux en comparaison avec celui des individus normaux a été confirmée. Ceci suggère qu’une section antérieure du corps calleux, qui perturbe le transfert d’informations de nature motrice/décisionnelle, est suffisante pour produire un supra-GR chez les ICD. Nos données permettent aussi d’affirmer que, contrairement au GR des individus normaux, celui des ICD totaux est sensible aux manipulations sensorielles. Nous concluons donc que le supra-GR des ICD est à la fois attribuable à des contributions sensorielles et motrices/décisionnelles. Une deuxième étude a investigué la DCNC et l’asynchronie bimanuelle chez les ICD et les individus normaux. La DCNC réfère à la soustraction des TR empruntant une voie anatomique « non-croisée » aux TR empruntant une voie anatomique « croisée », fournissant ainsi une estimation du temps de transfert interhémisphérique. Dans le contexte de notre étude, l’asynchronie bimanuelle réfère à la différence de TR entre la main gauche et la main droite, sans égard à l’hémichamp de présentation. Les effets de manipulations sensorielles et attentionnelles ont été évalués pour les deux mesures. Cette étude a permis d’établir une dissociation entre la DCNC et l’asynchronie bimanuelle. Précisément, les ICD totaux, mais non les ICD partiels, ont montré une DCNC significativement plus grande que celle des individus normaux, alors que les deux groupes d’ICD se sont montrés plus asynchrones que les individus normaux. Nous postulons donc que des processus indépendants sous-tendent la DCNC et la synchronie bimanuelle. De plus, en raison de la modulation parallèle du GR et de l’asynchronie bimanuelle entre les groupes, nous suggérons qu’un processus conjoint sous-tend ces deux mesures.
Resumo:
Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.
Espace et récit : l’inscription des temps dans la ville : parcours stochastiques chez Julio Cortázar
Resumo:
De la mouvance du récit contemporain fragmenté, labyrinthique, se dégage un rapport significatif entre les personnages du récit et les lieux dans lesquels ils gravitent : lieux comme figures diverses et discontinues de l’histoire et des mythes y étant inscrits. Cette construction interactive entre lieu et sujet fait intervenir l’espace comme primordial, et, ainsi, redéfinit l’importance du temps dans l’écrit. Le temps n’adviendrait plus seulement dans le « raconté », comme le suggère Ricœur, mais dans les strates successives de son inscription dans les lieux : le lieu est vécu comme art combinatoire des expériences qui s’y rattachent. C’est par le projet continuel et imparfait du sujet à se situer, plus spécifiquement ici dans la ville et dans celles auxquelles il s’identifie, que surgit l’expression du récit. À travers trois œuvres de Julio Cortázar, le temps sera pensé comme une modalité de fragments « empilables », inscrite dans les lieux signifiants, qui saura émerger au conscient par l’entremise de la porosité de la ville, de sa capacité à susciter des « sauts », des passages. Ce qui lie les espaces architectoniques et le temps qui s’y imprime au sujet qui doit se dire pour exister, mettre en récit afin d’unifier les parties discontinues de son être, émergera dans le « devenir en mouvement », superposition du récit et de l’expérience réelle, par les tropes cortazariens de l’expérimentation, jeu, passage et langage. Là surgira dans l’acte créatif une dynamique spécifique à la ville qui envahit et guide le sujet: sa singularité plurielle.
Resumo:
Cette thèse s’intéresse à un changement de paradigme dans l’imaginaire de la filiation tel qu’il est donné dans la littérature des femmes et les écrits du féminisme. L’hypothèse de travail est la suivante : à l’imaginaire d’une filiation déployée uniquement dans la latéralité des liens sororaux, se substitue au tournant des années 1990 un imaginaire mélancolique de la filiation, corollaire de la posture d’héritière désormais occupées par les auteures et penseures contemporaines. Parallèlement au développement d’une troisième vague du féminisme contemporain, la France et le Québec des années 1990 ont en effet vu naître ce qui est qualifié depuis peu de « nouvelle génération d’écrivaines ». « Premières », à l’échelle de l’histoire de la littérature des femmes, « à bénéficier d’un riche héritage littéraire féminin » (Rye et Worton, 2002 : 5), les auteures appartenant à ces « nouvelles voix » s’avèrent en effet doublement héritières, à la fois d’une tradition littéraire au féminin et de la pensée féministe contemporaine. Alors que la génération des années 1970 et du début des années 1980, se réclamant en un sens des discours d’émancipation des Lumières (liberté, égalité, fraternité), refusait l’héritage des générations antérieures, imaginant une communauté construite dans la sororité et fondée sur le meurtre des figures parentales, la génération actuelle n’est plus, quant à elle, dans la rupture. Située dans l’appropriation du passé et de l’histoire, elle réinvestit l’axe vertical de la généalogie. Or, c’est dans un récit familial mortifère ou encore lacunaire, morcelé, troué par le secret, ruiné par le passage du temps, toujours en partie perdu, qu’avancent les auteures, tout en questionnant le généalogique. Celui-ci ne s’entend pas ici en tant que vecteur d’ordre ou principe d’ordonnancement hiérarchique, mais se pose plutôt comme un mouvement de dislocation critique, « dérouteur des légitimités lorsqu’il retrace l’histoire des refoulements, des exclusions et des taxinomies » (Noudelmann, 2004 : 14) sur lesquels s’est construite l’histoire familiale. En d’autres termes, l’interrogation filiale à l’œuvre chez cette génération héritière participe d’une recherche de l’altérité, voire de l’étrangement, également présente dans les écrits théoriques et critiques du féminisme de la troisième vague. Cette thèse, en s’étayant sur l’analyse des récits de femmes et des écrits féministes publiés depuis les années 1970 – moment qui coïncide avec l’émergence de ce qu’il est désormais convenu d’appeler le féminisme de la deuxième vague –, a ainsi pour objectif de cerner les modifications que connaît l’imaginaire de la filiation à travers ce changement de paradigme. À l’aune de cette analyse menée dans la première partie, « De la sororité aux liens f(am)iliaux. Imaginaires de la filiation et représentations du corps », il s’agit, dans les deux parties suivantes intitulées « Des fantômes et des anges. La filiation en régime spectrale » et « Filles et mères, filles (a)mères. La filiation en régime de deuil » et consacrées plus précisément à l’étude des récits sélectionnés, de dégager les modalités filiales explorées par les auteures depuis le tournant des années 1990.
Resumo:
Introduction : La fibrose kystique (FK) est une maladie génétique mortelle qui touche principalement les poumons et l’appareil digestif. Elle est causée par des mutations sur le gène codant la protéine du CFTR, un canal chlore exprimé à la surface des organes à sécrétions exocrines. Les fonctions principales du CFTR sont les suivantes: 1) la régulation de l’homéostasie ionique des sécrétions; 2) le maintien de la fluidité des sécrétions et; 3) le transport du glutathion. Le dysfonctionnement de la protéine du CFTR rend les sécrétions visqueuses et épaisses, avec des phénomènes obstructifs qui sont responsables de l’apparition de fibrose au sein des divers organes. Dans le poumon, l’accumulation du mucus épais rend difficile l’élimination des bactéries inhalées, ces dernières établissent alors des cycles d’infection qui endommagent les tissus pulmonaires à travers des processus inflammatoires. Dans le tube digestif, le mucus épais entrave l’absorption d’une quantité suffisante d’éléments nutritifs incluant les principaux antioxydants. L’infection et l’inflammation des poumons favorisent l’apparition d’un stress oxydant qui détruit davantage le tissu pulmonaire. Le déficit en glutathion, probablement lié au dysfonctionnement de la proteine du CFTR, et la malabsorption des antioxydants favorisent l’augmentation du stress oxydant. Une augmentation du stress oxydant a été démontrée au cours du diabète et les produits dérivés du stress oxydant ont été mis en évidence dans la pathogenèse des complications associées au diabète. Une augmentation du stress oxydant a également été montrée durant la FK, mais sans pour autant expliquer la survenue du diabète secondaire à la FK dont la prévalence augmente sans cesse. Objectifs : Notre étude consiste à évaluer l’impact du stress oxydant dans les anomalies du métabolisme du glucose durant la FK, et à étudier son rôle dans les mécanismes de sécrétion d’insuline induite par le glucose. Pour ce faire, nous avons déterminé l’impact de la peroxydation lipidique sur la tolérance au glucose et la défense antioxydante globale, in vivo, chez des patients FK présentant une altération du métabolisme du glucose. De plus, nous avons évalué le rôle du stress oxydatif sur la synthèse et la sécrétion d’insuline, in vitro, dans les cellules pancréatiques βTC-tet. Résultats : Dans l’étude in vivo, nous avons démontré que l’intolérance au glucose et le diabète étaient associés à une augmentation de la peroxydation lipidique, traduite par la hausse des niveaux sanguins de 4-hydroxynonenal lié aux protéines (HNE-P). La défense antioxydante évaluée par la mesure du glutathion sanguin démontre que les niveaux de glutathion oxydé restent également élevés avec l’intolérance au glucose. Dans l’étude in vitro, nos résultats ont mis en évidence que l’exposition de la cellule βTC-tet au stress oxydant: 1) induit un processus de peroxydation lipidique; 2) augmente la sécrétion basale d’insuline; 3) diminue la réponse de la sécrétion d’insuline induite par le glucose; et 4) n’affecte que légèrement la synthèse de novo de l’insuline. Nous avons aussi démontré que les cellules pancréatiques βTC-tet résistaient au stress oxydant en augmentant leur synthèse en glutathion tandis que la présence d’un antioxydant exogène pouvait restaurer la fonction sécrétoire de ces cellules. Conclusion : Le stress oxydant affecte le fonctionnement de la cellule pancréatique β de plusieurs manières : 1) il inhibe le métabolisme du glucose dont les dérivés sont nécessaires à la sécrétion d’insuline; 2) il active la voie de signalisation impliquant les gènes pro-inflammatoires et; 3) il affecte l’intégrité membranaire en induisant le processus de peroxydation lipidique.
Resumo:
Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.
Resumo:
Avec l’émergence des nouveaux médias, une nouvelle façon de raconter les histoires s’impose. Les structures connues de l’esthétisme classique semblent désuètes par rapport aux dispositions des nouvelles plateformes de diffusion. Mieux encore, ces plateformes propulsent le récit, lui permettent de sortir de la rigidité de la ligne narrative : elles intègrent la technique au logos. L’intermédialité devient omniprésente; la diversité des types médiatiques employés dans une œuvre sont rendus visibles et sont articulés par la mise en récit. Méchoulan dira que dans l’« être-entre », dans l’espace reliant chacune des unités sémantiques, que l’événement de la pensée advient; pour Rodowick c’est le « figural ». Une figure particulière s’impose : le labyrinthe. Multipliant les possibilités narratives spécifiques aux nouveaux médias, le labyrinthe fait converger les composantes intermédiales. Bleeding Through : Layers of Los Angeles 1920-1986, une œuvre dirigée par Norman Klein, pose le labyrinthe comme élément structurel en y tissant un réseau où s’inscrit une pratique intermédiale. On y adresse le temps comme une opération fragmentaire, qui se sectionne, se réorganise en rompant avec la linéarité classique. Il nous faudra alors voir comment le labyrinthe réfléchit dans l’étude du temps certains éléments de la mythologie grecque. Les réflexions de Gervais sur le labyrinthe permettront d’étayer pareille hypothèse. Nous analyserons Bleeding Through à la lumière de ces théories pour ainsi dégager l’essence de cette figure qui a infiltrée la narration contemporaine. En somme, le labyrinthe se présente dans l’écologie médiatique actuelle comme une figure inhérente à la mise en récit.