982 resultados para dynamique trash


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux de recherche présentés ici avaient pour objectif principal la synthèse de copolymères statistiques à base d’éthylène et d’acide acrylique (AA). Pour cela, la déprotection des groupements esters d’un copolymère statistique précurseur, le poly(éthylène-co-(tert-butyl)acrylate), a été effectuée par hydrolyse à l’aide d’iodure de triméthylsilyle. La synthèse de ce précurseur est réalisée par polymérisation catalytique en présence d’un système à base de Palladium (Pd). Le deuxième objectif a été d’étudier et de caractériser des polymères synthétisés à l’état solide et en suspension colloïdale. Plusieurs copolymères précurseurs comprenant différents pourcentages molaires en tert-butyl acrylate (4 à 12% molaires) ont été synthétisés avec succès, puis déprotégés par hydrolyse pour obtenir des poly(éthylène-coacide acrylique) (pE-co-AA) avec différentes compositions. Seuls les copolymères comprenant 10% molaire ou plus de AA sont solubles dans le Tétrahydrofurane (THF) et uniquement dans ce solvant. De telles solutions peuvent être dialysées dans l’eau, ce qui conduit à un échange lent entre cette dernière et le THF, et l’autoassemblage du copolymère dans l’eau peut ensuite être étudié. C’est ainsi qu’ont pu être observées des nanoparticules stables dans le temps dont le comportement est sensible au pH et à la température. Les polymères synthétisés ont été caractérisés par Résonance Magnétique Nucléaire (RMN) ainsi que par spectroscopie Infra-Rouge (IR), avant et après déprotection. Les pourcentages molaires d’AA ont été déterminés par combinaison des résultats de RMN et ii de titrages conductimètriques. A l’état solide, les échantillons ont été analysés par Calorimétrie différentielle à balayage (DSC) et par Diffraction des rayons X. Les solutions colloïdales des polymères pE-co-AA ont été caractérisées par Diffusion dynamique de la lumière et par la DSC-haute sensibilité. De la microscopie électronique à transmission (TEM) a permis de visualiser la forme et la taille des nanoparticules.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte actuel de l’éducation au Québec où la réforme des programmes de formation des jeunes appelle un renouvellement des pratiques d’enseignement, notre recherche s’intéresse au développement de la dimension didactique de la pratique liée à l’enseignement des mathématiques qui est considéré comme l’un des éléments clés des nouvelles orientations. Nous abordons la question par le biais de la collaboration de formation initiale pour l’enseignement des mathématiques au primaire qui se vit en stage entre des praticiennes en exercice et en formation et une didacticienne des mathématiques. Cette rencontre sur le terrain des stages au primaire entre praticiennes et didacticienne, longtemps réclamée et rendue possible à l’UQAT , nous a amené à formuler une première question de recherche touchant ce qui se construit à travers les échanges de ces partenaires de la formation au cours des supervisions pédagogiques conjointes qui les réunissent en stage. Nous avons cadré ce questionnement à partir des balises théoriques de la didactique professionnelle qui proposent modèle et concepts pour expliciter l’activité professionnelle et traiter des phénomènes de développement des compétences professionnelles en contexte de travail et de formation. La didactique professionnelle attribue un rôle essentiel à la communauté de pratique et au processus d’analyse de l’expérience dans le développement professionnel des novices et dans l’explicitation d’un savoir d’action jugé pertinent et reconnu. Nous y faisons donc appel pour poser le potentiel que représentent les échanges issus de la collaboration quant à leur contribution à l’établissement d’un savoir de référence pour l’enseignement des mathématiques. La didactique professionnelle propose également le recours au concept de schème pour décrire l’activité professionnelle et à l’idée de concepts organisateurs comme élément central de l’activité et comme variable de la situation professionnelle concernée. Nous recourons à ces mêmes concepts pour expliciter le savoir de référence pour l’enseignement des mathématiques qui émerge à travers les échanges des partenaires de la formation. Dans le cadre d’une étude de cas, nous nous sommes intéressée aux échanges qui se déroulent entre une stagiaire qui effectue son troisième et avant dernier stage , l’enseignante-associée qui la reçoit et la chercheure-didacticienne qui emprunte le rôle de superviseure universitaire. Les échanges recueillis sont issus de trois cycles de supervision conjointe qui prennent la forme de rencontres de préparation des situations d’enseignement de mathématique; d’observation en classe des séances d’enseignement pilotées par la stagiaire auprès de ses élèves; et des rencontres consacrées à l’analyse des situations d’enseignement observées et de l’activité mise en œuvre par la stagiaire. Ainsi les objets de discussion relevés par les différents partenaires de la formation et la négociation de sens des situations professionnelles vécues et observées sont analysés de manière à rendre visibles les constituants de l’activité professionnelle qui sont jugés pertinents par la triade de formation. Dans un deuxième temps, en partant de cette première analyse, nous dégageons les concepts organisateurs des situations professionnelles liées à l’enseignement des mathématiques qui sont pris en compte par la triade de formation et qui constituent des variables de la situation professionnelle. Les constituants de l’activité et des situations professionnelles qui résultent de cette analyse sont envisagés en tant que représentations collectives qui se révèlent à travers les échanges de la triade de formation. Parce que ces représentations se sont trouvées partagées, négociées dans le cadre des supervisions pédagogiques, elles sont envisagées également en tant que savoir de référence pour cette triade de formation. Les échanges rendus possibles entre les praticiennes et la didacticienne placent ce savoir de référence dans une dynamique de double rationalité pratique et didactique. Enfin, partant de l’apport déterminant de la communauté de pratique et de formation de même que du savoir de référence que cette dernière reconnait comme pertinent dans le développement professionnel des novices, les résultats de cette recherches peuvent contribuer à réfléchir la formation des futures enseignantes en stage en ce qui a trait à l’enseignement des mathématiques au primaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La consommation des jeunes placés dans les centres jeunesse du Québec est bien documentée, mais leurs motivations à consommer, à changer ou à parler de leur consommation avec un intervenant demeurent inconnues. Par ailleurs, très peu de chercheurs se sont intéressés aux particularités du processus de changement à l’adolescence et encore moins à ce processus dans un contexte d’autorité. Pour ces raisons, la présente recherche donne la parole aux jeunes afin de mieux comprendre leur usage de substances psychoactives, leur désir éventuel de réduire ou d’arrêter leur consommation, leur ouverture à réfléchir ou à discuter de leur consommation et leur ouverture envers les interventions disponibles. Basés sur une collecte de données qualitatives composée de 27 entrevues avec les jeunes hébergés au Centre jeunesse de Montréal et de huit mois d’observations participantes dans les unités de vie, les résultats indiquent que la majorité des adolescents interviewés disent consommer diverses substances psychoactives pour lesquelles ils identifient différentes sources de motivation, autant à consommer qu’à changer leur consommation. De plus, ces sources de motivation identifiées sont plus ou moins associées au contexte d’autorité dans lequel les jeunes sont placés. Ainsi, si certains jeunes estiment que la possibilité de changement est facilitée par l’environnement contrôlé du Centre jeunesse, pour d’autres, les contraintes de ce milieu de vie ne semblent pas avoir d’impact sur leur motivation. Par ailleurs, les jeunes démontrent différents degrés d’ouverture envers les interventions disponibles et envers les éducateurs qui les côtoient. En général, les approches compréhensives et moins autoritaires semblent encourager un certain investissement de la relation entre jeunes et éducateurs et peuvent potentiellement faciliter l’établissement d’une relation d’aide et le changement de comportement. En utilisant le cadre théorique proposé, une combinaison du Modèle transthéortique du changement et de la Théorie de l’auto-détermination, il apparaît limité de considérer les jeunes en difficulté comme étant motivés ou non motivés à changer leur consommation. Les analyses démontrent que les perceptions de la nécessité ou des possibilités d’amorcer un processus de changement varient beaucoup d’un jeune à l’autre. Ainsi, l’approche choisie pour intervenir auprès des jeunes en difficulté devrait prendre en considération les nuances et la dynamique des motivations afin de mieux adapter les services offerts et de mieux comprendre les raisons associées au succès et à l’échec de certaines interventions et intervenants vis-à-vis de certains adolescents. En outre, afin de favoriser une perception positive du « placement » et pour que les jeunes le voient comme une « opportunité de changement », il apparaît important d’examiner la fréquence et l’intensité des interventions contraignantes appliquées dans les centres de réadaptation. Finalement, il importe de mentionner que les conclusions de cette étude exploratoire ne permettent d’établir des relations causales entre l’approche choisie par l’intervenant, la motivation à changer et l’ouverture des jeunes. Cependant, les données obtenues permettent d’analyser en profondeur les représentations que les jeunes ont des relations entre ces trois éléments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que les chercheurs fassent état de l ’importance croissante de l ’individualisme en droit québécois de la famille, il n ’est pas clair que ces conclusions soient fondées sur une définition constante du phénomène. Il est primordial de comprendre la dynamique mouvante de cette tendance, ses caractéristiques ainsi que son lien avec le droit. Au moyen d ’une approche socio-juridique, le présent mémoire décrit ce phénomène et définit trois indicateurs pour explorer si et comment le droit social et privé québécois de la famille s ’individualise autour de la mère au foyer. Au final, le mémoire démontre que le droit de la famille vise, reconnaît et supporte concrètement très peu la mère au foyer. L ’observation de ce cas a plutôt mis en lumière une tendance à la diminution de mesures ou services qui la supportent, tendance qui est notamment liée à la fiscalisation, la contractualisation et l ’octroi d ’une large discrétion judiciaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les centrosomes sont les centres organisateurs des microtubules et jouent un rôle crucial dans l’organisation du fuseau bipolaire pendant la mitose. Plus récemment, le rôle des centrosomes dans la régulation de l’entrée en mitose a été mis en évidence. Les centrosomes semblent également contribuer à l’activation du point de contrôle en G2/M en réponse aux lésions de l’ADN en servant de point de rencontre pour les régulateurs du cycle cellulaire et les gènes de réponse aux dommages à l’ADN. L’amplification du nombre de centrosomes est une caractéristique des cellules tumorales mais de façon intéressante, elle constitue aussi une réponse des cellules aux dommages à l’ADN. Les mécanismes qui régulent l’homéostasie et la dynamique des centrosomes sont encore mal compris. Pour mieux comprendre le rôle des centrosomes dans la régulation du point de contrôle en G2/M en réponse aux dommages à l’ADN, le recrutement et/ou l’activation au niveau des centrosomes des kinases impliquées dans les voies de signalisation de ce point de contrôle ont été étudiés par immunofluorescence indirecte sur cellules HeLaS3 ou par Western blot sur des fractions enrichies en centrosomes. Nos résultats montrent que les kinases ATM, ATR, CHK1 et CHK2 sont actives dans les centrosomes de cellules en phase G2. En réponse à l’activation du point de contrôle en G2/M, les formes actives de ces kinases diminuent au niveau des centrosomes. Pour identifier de nouveaux acteurs centrosomaux potentiellement impliqués dans la régulation de ce point de contrôle, une analyse comparative des protéomes de centrosomes purifiés a également été réalisée par spectrométrie de masse. Pour étudier plus particulièrement la fonction de CHK2 au niveau des centrosomes, nous avons développer des outils moléculaires qui serviront à déterminer le rôle de la sous population de CHK2 localisée aux centrosomes 1) dans la régulation de l’entrée en mitose au cours d’un cycle normal 2) dans l’activation et la stabilité du point de contrôle en G2/M en réponse aux lésions l’ADN et 3) dans l’homéostasie et la dynamiques des centrosomes en réponse aux dommages à l’ADN. Cette étude permettra de mieux comprendre la fonction des centrosomes dans la réponse cellulaire au stress génotoxiques anti-cancereux et de révéler de nouvelles fonctions potentielles pour la kinase CHK2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On évoque souvent des difficultés à interagir socialement chez les enfants ayant une dysphasie. Ces difficultés sont généralement attribuées aux troubles du langage, mais elles pourraient aussi provenir d’un problème à décoder les émotions des autres. Le but de la présente recherche est d’explorer cette voie chez les enfants dysphasiques de 9 à 12 ans. Différents stimuli émotionnels leur ont été présentés sous forme de vidéos ainsi qu’à des enfants d’un groupe contrôle selon cinq conditions : parole non filtrée, parole filtrée, visage dynamique, visage dynamique accompagné de la parole non filtrée, et visage dynamique avec parole filtrée. Les enfants dysphasiques et les enfants du groupe contrôle ne se comportent pas différemment de manière significative en fonction des émotions présentées et des conditions testées. Par contre, un sous-groupe d’enfants ayant une dysphasie mixte commet significativement plus d’erreurs pour l’ensemble de la tâche que le sous-groupe d’enfants sans dysphasie de même âge chronologique. En fait une part seulement des enfants dysphasiques mixtes ont des scores plus faibles. Ces mêmes enfants présentent un QI non verbal faible tandis que leur compréhension du langage est équivalente à celle de leur sous-groupe (enfants dysphasiques mixtes). Malgré ces différences significatives, les scores des enfants dysphasiques mixtes restent relativement élevés et les difficultés observées sont subtiles. Sur le plan clinique, les praticiens (orthophonistes, psychologues, éducateur) devront systématiser l’évaluation des habiletés de décodage des émotions chez l’enfant dysphasique dont les difficultés ne sont pas forcément évidentes dans la vie quotidienne. La recherche devra développer un outil de dépistage sensible aux troubles de décodage émotionnel et des stratégies thérapeutiques adaptées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet de ce mémoire est l’étude ab initio des nanotubes de carbone. Premièrement, une introduction du sujet est présentée. Elle porte sur l’historique, la structure géométrique et électronique et les applications possibles des nanotubes de carbone. En deuxième lieu, la stabilité énergétique des nanotubes de carbones double parois ainsi que leur structure électronique sont étudiées. On trouve entre autres que le changement d’hybridation provoque une chute de l’énergie du dernier niveau occupé pour les petits nanotubes. Troisièmement, nous présenterons une étude sur la dépendance en diamètre et en métallicité du greffage d’unité bromophényle sur la surface des nanotubes. La principale conclusion est qu’il est plus facile de fonctionnaliser les nanotubes de petit diamètre puisque ceux-ci ont déjà une partie d’hybridation sp3 dans leur structure électronique. Finalement, le dernier chapitre aborde la combustion des nanotubes par le dioxyde de carbone. On constate que cette combustion ne peut pas débuter sur une surface intacte, ni par un pontage d’oxygène dû à la grande quantité d’énergie requise. La réaction privilégiée est alors la combustion par les extrémités du nanotube. Nous proposons une dynamique de réaction qui contient une sélectivité en diamètre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au croisement de l’anthropologie médicale, de la communication, du design industriel et des nouvelles technologies de l’information, ce mémoire se penche sur les difficultés communicatives rencontrées par le personnel médical et les patients de provenances culturelles variées dans le milieu des urgences hospitalières à Montréal. Dans l’optique d’améliorer l’échange au poste de triage, la réflexion porte principalement sur la pertinence et les caractéristiques d’un support visuel d’appoint. Elle aborde la problématique par l’étude des concepts de perception, de compréhension, d’interprétation et de représentation graphique sous les angles théoriques de la communication visuelle (Benjamin, Berger, Dibi-Huberman), de la sémiologie du discours social (Verón) et du jeu herméneutique (Gadamer). Les systèmes symboliques de cent cinquante images, illustrant sur Internet trois symptômes propres à la gastro-entérite, ont été analysés d’après une méthodologie mixte quantitative et qualitative afin d’identifier leurs sens dénotatifs et connotatifs. Les résultats appuient le recours à des images pour contourner les barrières langagières et révèlent l’existence d’une culture médicale visuelle internationale dont le code iconographique est hybride et pluriculturel. Ces nouvelles informations indiquent des critères de performance et des hypothèses concernant les changements occasionnés par l’ajout d’un support visuel dans la dynamique communicationnelle de l’ETC. La recherche ouvre aussi une piste vers l’étude herméneutique du produit en design industriel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comporte trois essais en macroéconomie en économie ouverte et commerce international. Je considère tour à tour les questions suivantes: sous quelles conditions est-il optimal pour un pays de former une union économique? (essai 1); l'augmentation de la dispersion transversale des avoirs extérieurs nets des pays est-elle compatible avec une dispersion relativement stable des taux d'investissement? (essai 2); le risque de perte de marché à l'exportation du fait de l'existence des zones de commerce préférentiel joue t-il un rôle dans la décision des pays exclus de négocier des accords commerciaux à leur tour? (essai 3). Le premier essai examine les conditions d'optimalité d'une union économique. Il s'intéresse à une motivation particulière: le partage du risque lié aux fluctuations du revenu. Dans la situation initiale, les pays ont très peu d'opportunités pour partager le risque à cause des frictions: les marchés financiers internationaux sont incomplets et il n'y pas de mécanisme pour faire respecter les contrats de crédit entre pays. Dans ce contexte, une union économique apparait comme un arrangement qui pallie à ces frictions entre les pays membres seulement. Cependant, l'union dans son ensemble continue de faire face à ces frictions lorsqu'elle échange avec le reste du monde. L'arbitrage clé dans le modèle est le suivant. D'un coté, l'intégration économique permet un meilleur partage du risque entre pays membres et la possibilité pour le partenaire pauvre d'utiliser la ligne de crédit du partenaire riche en cas de besoin. De l'autre coté, l'union peut faire face à une limite de crédit plus restrictive parce que résilier la dette extérieure est moins coûteux pour les membres l'union. De plus, le fait que le partenaire pauvre peut utiliser la limite de crédit du partenaire riche génère une externalité négative pour ce dernier qui se retrouve plus fréquemment contraint au niveau des marchés internationaux des capitaux. En conformité avec les faits observés sur l'intégration économique, le modèle prédit que les unions économiques sont relativement peu fréquentes, sont plus susceptibles d'être créées parmi des pays homogènes, et généralement riches. Le deuxième essai porte sur la dispersion des avoirs extérieurs nets et la relation avec la dispersion des taux d'investissement. Au cours des récentes décennies, la dispersion croissante des déséquilibres extérieurs et les niveaux record atteints par certaines grandes économies ont reçu une attention considérable. On pourrait attribuer ce phénomène à une réduction des barrières aux mouvements internationaux des capitaux. Mais dans ce cas, il est légitime de s'attendre à une augmentation de la dispersion au niveau des taux d'investissement; ceci, parce que le financement des besoins en investissements constitue une raison fondamentale pour laquelle les pays échangent les capitaux. Les données indiquent cependant que la dispersion des taux d'investissement est restée relativement stable au cours des récentes décennies. Pour réconcilier ces faits, je construis un modèle d'équilibre général dynamique et stochastique où les pays sont hétérogènes en raison des chocs idiosyncratiques à leurs niveaux de productivité totale des facteurs. Au niveau des marchés internationaux des capitaux, le menu des actifs disponibles est restreint à une obligation sans risque et il n'y a pas de mécanisme pour faire respecter les contrats de crédit entre pays. A tout moment, un pays peut choisir de résilier sa dette extérieure sous peine d'exclusion financière et d'un coût direct. Ce coût direct reflète les canaux autres que l'exclusion financière à travers lesquels les pays en défaut sont pénalisés. Lorsque le modèle est calibré pour reproduire l'évolution de la dispersion transversale des avoirs extérieurs nets, il produit une dispersion relativement stable des taux d'investissement. La raison principale est que les incitations que les pays ont à investir sont liées à la productivité. Avec l'intégration financière, même si les opportunités d'emprunt se sont multipliées, les incitations à investir n'ont pas beaucoup changé. Ce qui permet de générer une dispersion accrue de la position des avoirs extérieurs nets des pays avec une dispersion relativement stable des taux d'investissement. Le troisième essai analyse un aspect de l'interdépendance dans la formation des accords commerciaux préférentiels: j'examine empiriquement si le risque de diversion des exportations en faveur des pays membres des zones de commerce préférentiel est un facteur déterminant dans la décision des pays exclus de ces accords de négocier un accord à leur tour. Je construis un indicateur qui mesure le potentiel de diversion des exportations auquel font face les pays et estime un modèle probit de formation des zones de commerce préférentiel créées entre 1961 et 2005. Les résultats confirment que les pays confrontés à un plus grand potentiel de détournement des échanges sont plus susceptibles de former une zone de commerce préférentiel à leur tour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse tente de réfléchir sur l’écriture de Boubacar Boris Diop. Les romans de cet écrivain doivent une grande part de leur originalité à la présence obsédante des discours de la mémoire et de l’histoire. Son esthétique s’inscrit dans une revisitation permanente des récits de l'historiographie. Cette écriture convoque le passé et l'investit comme matériau dans cette exploration des formes du roman. Une telle démarche scripturale semble être la pierre angulaire de cette fiction aux confluences desquelles se rencontrent et s'intègrent systématiquement, aussi bien les genres romanesques hétérogènes de l'oralité (contes, épopées, mythes...), que des disciplines non romanesques. Cette stratégie de construction romanesque traduit, au-delà d'une simple exploration formelle et innovatrice des possibles du roman, une esthétique de distanciation et d'hétérogénéité qui traverse en filigrane l'œuvre de Boubacar Boris Diop. Cette forme d’écriture singularise son esthétique et constitue une rupture épistémologique dans le champ littéraire africain, qui a été souvent caractérisé par des récits linéaires classiques. L’usage de ces discours de l’histoire et de la mémoire, dans l’esthétique romanesque de Boubacar Boris Diop, s’articule d’abord dans une démarche de renouvellement des habitudes dans le champ littéraire africain, et ouvre aussi cette «phase autoréférentielle» (Sob, 2007 : 8) du roman en inscrivant son discours dans la modernité. Ensuite, cette pratique scripturale se construit sur l’élaboration d’un style romanesque particulier, se déployant dans une mise en scène et une parodisation permanentes du fonctionnement et des modalités de l’écriture. Sur fond d’une déconstruction perpétuelle des procédés de composition romanesque, se dessinent les contours d’une esthétique qui promeut et institue l’ambivalence généralisée comme le mode principal de son déploiement. Une telle pratique intertextuelle permet à l’écriture romanesque de se construire en confrontant les discours officiels de l’historiographie en général et l’histoire africaine contemporaine en particulier. En légitimant la déconstruction systématique comme dispositif de la composition romanesque, l’écriture se place dans une dynamique de «soupçon» qui sous-tend l’esthétique romanesque de Boubacar Boris Diop. La présente étude a le dessein de répertorier et d'analyser d'abord l'intégration des discours de l'histoire et de la mémoire, dans leurs manifestations et configurations dans l'œuvre de Diop, et ensuite, d'étudier leurs modalités d'insertion et d'utilisation dans l’élaboration de la fiction. Il s'agira, dans un cadre intertextuel, de voir comment ces discours sont investis et retravaillés par la fiction et, au-delà, d’essayer de repérer les motifs et les modalités discursives qui gouvernent leur usage. Une telle approche nous permettra d’appréhender les dimensions significatives de cette démarche scripturale et de voir éventuellement, s’il existe une poétique de la mémoire chez Boubacar Boris Diop. Les différentes théories sur la fiction, la mémoire et le discours historiographique nous serviront de charpente théorique qui sous-tendra notre thèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les différentes protéines accessoires du VIH-1, l’agent étiologique du SIDA, optimisent la réplication et la propagation du virus in vivo. Parmi ces dernières figure Vpu, l’antagoniste du facteur de restriction nommé Tetherin qui prévient la relâche des particules virales à partir de la surface de cellules infectées. En diminuant son expression de surface, Vpu prévient l’incorporation de ce facteur de restriction dans la particule virale en formation et conséquemment, empêche la formation d’une ancre protéique reliant le virus mature à la membrane plasmique de la cellule infectée. La mécanistique sous-jacente n’était cependant pas connue. Cette présente thèse relate nos travaux exécutés afin d’élucider la dynamique des mécanismes cellulaires responsables de cet antagonisme. Une approche de mutagénèse dirigée a d’abord permis d’identifier deux régions contenant des déterminants de la localisation de Vpu dans le réseau trans-Golgi (RTG), puis de démontrer la relation existante entre cette distribution et l’augmentation de la relâche des particules virales. Des expériences subséquentes de marquage métabolique suivi d’une chasse exécutées dans des systèmes cellulaires où Tetherin est exprimée de façon endogène ont suggéré le caractère dispensable de l’induction par Vpu de la dégradation du facteur de restriction lors de son antagonisme. En revanche, une approche de réexpression de Tetherin conduite en cytométrie en flux, confirmée en microscopie confocale, a mis en évidence une séquestration de Tetherin dans le RTG en présence de Vpu, phénomène qui s’est avéré nécessiter l’interaction entre les deux protéines. L’usage d’un système d’expression de Vpu inductible conjugué à des techniques de cytométrie en flux nous a permis d’apprécier l’effet majeur de Vpu sur la Tetherin néo-synthétisée et plus mineur sur la Tetherin de surface. En présence de Vpu, la séquestration intracellulaire de la Tetherin néo-synthétisée et la légère accélération de l’internalisation naturelle de celle en surface se sont avérées suffisantes à la réduction de son expression globale à la membrane plasmique et ce, à temps pour l’initiation du processus de relâche virale. À la lumière de nos résultats, nous proposons un modèle où la séquestration de la Tetherin néo-synthétisée dans le RTG préviendrait le réapprovisionnement de Tetherin en surface qui, combinée avec l’internalisation naturelle de Tetherin à partir de la membrane plasmique, imposerait l’établissement d’un nouvel équilibre de Tetherin incompatible avec une restriction de la relâche des particules virales. Cette thèse nous a donc permis d’identifier un processus par lequel Vpu augmente la sécrétion de virus matures et établit une base mécanistique nécessaire à la compréhension de la contribution de Vpu à la propagation et à la pathogénèse du virus, ce qui pourrait mener à l’élaboration d’une stratégie visant à contrer l’effet de cette protéine virale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche porte sur des questions relatives à la conception des interfaces humain-ordinateur. Elle s’inscrit dans le courant des recherches sur l’utilisabilité et elle s’intéresse particulièrement aux approches centrées sur l’utilisateur. Nous avons été très souvent témoin des difficultés éprouvées par les utilisateurs dans l’usage de certaines interfaces interactives et nous considérons que ces difficultés découlent d’un problème de design. Le design d’interface doit être basé sur les besoins de l’utilisateur dans le cadre de ses activités, dont les caractéristiques devaient être bien comprises et bien prises en considération pour mener à la conception d’interfaces qui respectent les critères d’utilisabilité. De plus, la communauté des chercheurs ainsi que l’industrie admettent maintenant que pour améliorer le design, il est crucial de développer les interfaces humain-ordinateur au sein d’une équipe multidisciplinaire. Malgré les avancées significatives dans le domaine du design centrées sur l’utilisateur, les visées annoncées sont rarement réalisées. La problématique étudiée nous a conduit à poser la question suivante : En tant que designer d’une équipe multidisciplinaire de conception, comment modifier la dynamique de collaboration et créer les conditions d’une conception véritablement centrée sur l’interaction humain-ordinateur ? Notre démarche de recherche a été guidée par l’hypothèse voulant que l’activité de design puisse être le moyen de faciliter la création d’un langage commun, des échanges constructifs entre les disciplines, et une réflexion commune centrée sur l’utilisateur. La formulation de cette hypothèse nous a mené à réfléchir sur le rôle du designer. Pour mener cette recherche, nous avons adopté une méthodologie mixte. Dans un premier temps, nous avons utilisé une approche de recherche par projet (recherche-projet) et notre fonction était celle de designer-chercheur. La recherche-projet est particulièrement appropriée pour les recherches en design. Elle privilégie les méthodes qualitatives et interprétatives ; elle étudie la situation dans sa complexité et de façon engagée. Nous avons effectué trois études de cas successives. L’objectif de la première étude était d’observer notre propre rôle et nos interactions avec les autres membres de l’équipe de projet pendant le processus de design. Dans la seconde étude, notre attention a été portée sur les interactions et la collaboration de l’équipe. Nous avons utilisé le processus de design comme méthode pour la construction d’un langage commun entre les intervenants, pour enrichir les réflexions et pour favoriser leur collaboration menant à redéfinir les objectifs du projet. Les limites de ces deux cas nous ont conduit à une intervention différente que nous avons mise en œuvre dans la troisième étude de cas. Cette intervention est constituée par la mise en place d’un atelier intensif de conception où les intervenants au projet se sont engagés à développer une attitude interdisciplinaire permettant la copratique réflexive pour atteindre les objectifs d’un projet de construction d’un site web complexe centré sur l’utilisateur. L’analyse et l’interprétation des données collectées de ces trois études de cas nous ont conduit à créer un modèle théorique de conception d’interface humain-ordinateur. Ce modèle qui informe et structure le processus de design impliquant une équipe multidisciplinaire a pour objectif d’améliorer l’approche centrée sur l’utilisateur. Dans le cadre de ce modèle, le designer endosse le rôle de médiateur en assurant l’efficacité de la collaboration de l’équipe. Dans un deuxième temps, afin de valider le modèle et éventuellement le perfectionner, nous avons utilisé une approche ethnographique comportant des entrevues avec trois experts dans le domaine. Les données des entrevues confirment la validité du modèle ainsi que son potentiel de transférabilité à d’autres contextes. L’application de ce modèle de conception permet d’obtenir des résultats plus performants, plus durables, et dans un délai plus court.