998 resultados para Taxe a la Valeur Ajoutee


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les nouvelles technologies jouent un rôle croissant dans notre société. Le droit s’est interrogé sur la façon de rendre possible l’utilisation du support électronique dans un monde où seule l’utilisation du support papier était possible jusqu’à peu. L’objectif était d’éviter que la loi par son attachement au support papier n’entrave l’utilisation des nouvelles technologies et plus largement le développement des échanges en ligne. Dans ce contexte, la Commission des Nations Unies pour le Développement du Commerce International (CNUDCI) a développé les principes de neutralité technologique et d’équivalence fonctionnelle aux termes desquels les écrits électroniques sont considérés comme équivalents à ceux papiers s’ils sont en mesure d’endosser les mêmes fonctions que ces derniers. Le législateur français, s’inspirant des travaux de la CNUDCI, a modifié sa législation pour permettre la reconnaissance de la valeur juridique des actes passés par voie électronique. La reconnaissance de la valeur juridique des actes conclus par voie électronique laisse cependant subsister certaines questions relatives la protection du consentement de celui qui contracte en ligne. Le législateur français a ainsi élaboré des règles formalistes et dérogatoires au droit commun concernant la conclusion des contrats électroniques pour protéger le consommateur en ligne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse porte sur les traits de personnalité associés aux comportements délinquants. De façon plus spécifique, elle s’intéresse à la contribution des traits de personnalité psychopathiques évalués à l’adolescence pour prédire les conduites délinquantes au début de l’âge adulte, lorsque sont également considérés des indices comportementaux. Elle s’inscrit dans le cadre d’une étude longitudinale plus large destinée à décrire les adolescents des Centres jeunesse du Québec. Aux fins de la thèse, un sous-groupe de jeunes, de sexe masculin, a été sélectionné : ces jeunes présentent un trouble des conduites ou ont manifesté des comportements délinquants au cours de l’adolescence. Cette sélection vise à cerner les adolescents les plus susceptibles de présenter des traits psychopathiques, eu égard à la faible prévalence du trouble dans la population générale. Quarante-huit adolescents ont accepté de participer à l'entrevue utilisant la PCL-SV (Psychopathy Checklist Screening Version). Un premier volet de la thèse valide, au Québec, une version française d’une mesure de la psychopathie adaptée à l'adolescence, la PCL-SV. Les indices de fidélité et de validité sont satisfaisants et comparables à ce qui est rapporté avec d’autres versions de la PCL auprès d’adolescents et d’adultes. Les résultats appuient la pertinence de son utilisation auprès des adolescents. Un second volet du projet porte sur la contribution d’une mesure des traits psychopathiques à l’adolescence à la prédiction des conduites délinquantes au début de l’âge adulte. Les traits psychopathiques, tels qu’évalués à l’aide de la PCL-SV, sont un apport significatif aux indices de comportements délinquants dans la prédiction des conduites délinquantes autorapportées deux ans plus tard. Finalement, un dernier volet explore une approche dimensionnelle dans la conceptualisation de la psychopathie, sous l’angle d’un modèle général de la personnalité : le Modèle à cinq facteurs (MCF). Ce volet porte sur la capacité de ce modèle, alternative au modèle catégoriel, à distinguer des jeunes au plan de la gravité de leur délinquance. Les jeunes présentant une délinquance distinctive ont une plus forte propension à rechercher les sensations fortes que ceux dont la délinquance est générale. Les résultats mettent en lumière l’importance d’une composante d’impulsivité comme élément caractéristique d’un sous-groupe de jeunes présentant une délinquance distinctive. L’étude appuie l’utilisation d’un modèle général de la personnalité pour cerner des traits associés à la psychopathie, permettant ainsi d’identifier un noyau dur de délinquants. L’ensemble du projet permet d’établir la valeur ajoutée d’une mesure des traits psychopathiques à l’adolescence pour la prédiction des conduites délinquantes. Il met en lumière l’importance d’une composante d’impulsivité chez les jeunes impliqués dans une délinquance distinctive. C’est l’une des rares études longitudinales s’intéressant à la délinquance autorapportée et à la psychopathie sous l’angle des facettes du MCF chez des adolescents. Il y a une telle hétérogénéité parmi les jeunes délinquants qu’une mesure valide de la psychopathie à l’adolescence permettra une identification plus fiable des jeunes susceptibles de poursuivre leur trajectoire criminelle à l’âge adulte. Les implications cliniques des résultats et les recommandations pour des recherches futures sont reprises dans la conclusion de l’ouvrage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire a pour but d'étudier les propriétés des solutions à l'équation aux valeurs propres de l'opérateur de Laplace sur le disque lorsque les valeurs propres tendent vers l'in ni. En particulier, on s'intéresse au taux de croissance des normes ponctuelle et L1. Soit D le disque unitaire et @D sa frontière (le cercle unitaire). On s'inté- resse aux solutions de l'équation aux valeurs propres f = f avec soit des conditions frontières de Dirichlet (fj@D = 0), soit des conditions frontières de Neumann ( @f @nj@D = 0 ; notons que sur le disque, la dérivée normale est simplement la dérivée par rapport à la variable radiale : @ @n = @ @r ). Les fonctions propres correspondantes sont données par : f (r; ) = fn;m(r; ) = Jn(kn;mr)(Acos(n ) + B sin(n )) (Dirichlet) fN (r; ) = fN n;m(r; ) = Jn(k0 n;mr)(Acos(n ) + B sin(n )) (Neumann) où Jn est la fonction de Bessel de premier type d'ordre n, kn;m est son m- ième zéro et k0 n;m est le m-ième zéro de sa dérivée (ici on dénote les fonctions propres pour le problème de Dirichlet par f et celles pour le problème de Neumann par fN). Dans ce cas, on obtient que le spectre SpD( ) du laplacien sur D, c'est-à-dire l'ensemble de ses valeurs propres, est donné par : SpD( ) = f : f = fg = fk2 n;m : n = 0; 1; 2; : : :m = 1; 2; : : :g (Dirichlet) SpN D( ) = f : fN = fNg = fk0 n;m 2 : n = 0; 1; 2; : : :m = 1; 2; : : :g (Neumann) En n, on impose que nos fonctions propres soient normalisées par rapport à la norme L2 sur D, c'est-à-dire : R D F2 da = 1 (à partir de maintenant on utilise F pour noter les fonctions propres normalisées et f pour les fonctions propres quelconques). Sous ces conditions, on s'intéresse à déterminer le taux de croissance de la norme L1 des fonctions propres normalisées, notée jjF jj1, selon . Il est vi important de mentionner que la norme L1 d'une fonction sur un domaine correspond au maximum de sa valeur absolue sur le domaine. Notons que dépend de deux paramètres, m et n et que la dépendance entre et la norme L1 dépendra du rapport entre leurs taux de croissance. L'étude du comportement de la norme L1 est étroitement liée à l'étude de l'ensemble E(D) qui est l'ensemble des points d'accumulation de log(jjF jj1)= log : Notre principal résultat sera de montrer que [7=36; 1=4] E(B2) [1=18; 1=4]: Le mémoire est organisé comme suit. L'introdution et les résultats principaux sont présentés au chapitre 1. Au chapitre 2, on rappelle quelques faits biens connus concernant les fonctions propres du laplacien sur le disque et sur les fonctions de Bessel. Au chapitre 3, on prouve des résultats concernant la croissance de la norme ponctuelle des fonctions propres. On montre notamment que, si m=n ! 0, alors pour tout point donné (r; ) du disque, la valeur de F (r; ) décroit exponentiellement lorsque ! 1. Au chapitre 4, on montre plusieurs résultats sur la croissance de la norme L1. Le probl ème avec conditions frontières de Neumann est discuté au chapitre 5 et on présente quelques résultats numériques au chapitre 6. Une brève discussion et un sommaire de notre travail se trouve au chapitre 7.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Peu de personnes se rappellent de la présence de la France en Inde. Quelques parties de l’Inde sont restées françaises jusqu’en 1954. À cette date, l’Inde française, consistant de quatre petits établissements (Pondichéry, Yanaon, Karikal et Mahé), était en pleine décadence et éclipsée par d’autres colonies françaises, plus grandes, plus lucratives et plus importantes pour la Métropole. L’Indochine et l’Algérie ne sont que deux exemples. Toutefois, les Français n’étaient pas disposés à abandonner leurs possessions en Inde sans résistance. Le présent mémoire cherche à expliquer la valeur des possessions françaises en Inde et les raisons de la fin de la tutelle française. Le titre du mémoire indique qu’un certain changement a eu lieu dans la politique française vis-à-vis de ses possessions en Inde. L’étude commence par un résumé de la situation politique et économique de l’Inde française depuis la fin de la dernière occupation anglaise en 1814 jusqu’à la fin de la Première Guerre mondiale. L’année 1920 est choisie comme point de départ de la période visée par le mémoire. Portant sur les années 1920, le premier chapitre examine l’hégémonie du parti Gaebelé qui a eu toutes les caractéristiques d’une dictature. Indifférentes à la vie politique de l’Inde française, les autorités métropolitaines étaient surtout attirées par le commerce que la colonie offrait dans la production de tissus et l’exportation d’arachides. Après la chute du parti Gaebelé, l’Inde française a été plongée dans une longue période d’agitation, un thème clé du deuxième chapitre sur les années 1930. Inconscientes de la réalité politique, les autorités métropolitaines ont toujours accordé la priorité au commerce. Durant les années 1940, l’Inde française n’a jamais arrêté de se rapprocher de l’Inde britannique. Ce rapprochement a aussi persisté lorsque l’Inde britannique est devenue l’Union indienne en 1947. Soudainement, les Français ont senti le besoin de réaffirmer leur position d’autorité en Inde française. Le commerce est passé au second plan au profit d’une série de réformes politiques. Toutefois, ce brusque changement de politique fut trop tardif. Le quatrième chapitre, centré surtout sur la période de 1950 à 1954 et vu à travers l’exemple d’Édouard Goubert, a souligné la méconnaissance des autorités métropolitaines des réalités qui confrontaient l’Inde française. Lorsque Goubert a cessé de servir comme porte-parole et principal allié du gouvernement français en Inde, les possessions françaises en Inde furent rattachées une par une à l’Union indienne. Rétrospectivement, les faits économiques, vitaux pour le début du mémoire, sont quasiment absents de deux derniers chapitres. Se retrouvant face à la menace de perdre leurs possessions en Inde, les Français ont compris que l’Inde française était précieuse pour des raisons autres que le commerce. Un accent particulier fut mis pour souligner ces avantages culturels et politiques. De petite taille, les possessions françaises étaient importantes pour l’ordre et la stabilité dans les autres colonies de l’Empire. Parallèlement, elles représentaient des points d’appui pour l’expansion de la culture française dans l’immense sous-continent indien.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire est consacré au problème de la place de l’herméneutique dans l’œuvre d’Emmanuel Levinas. Au premier abord, l’œuvre semble présenter une forte ambivalence quant à la valeur que le philosophe accorde aux catégories herméneutiques. D’abord, dans les œuvres proprement philosophiques, Levinas présente une critique sévère de la compréhension dans laquelle il décèle un geste de totalisation et d’appropriation du sens contre lequel il élèvera une pensée de l’éthique comme « philosophie première ». D’autre part, un autre pan du corpus levinassien, celui des Lectures talmudiques, est consacré au déploiement d’une herméneutique des textes religieux de la tradition juive où Levinas fait puissamment intervenir les catégories éthiques propres à sa philosophie au sein de son activité exégétique. L’un des paradoxes intéressants que nous présente donc l’œuvre levinassienne est celui d’une philosophie s’érigeant en bonne partie sur une critique de la catégorie centrale de l’herméneutique, la compréhension, et qui ne se décline pas moins elle-même en une théorie de l’interprétation des textes. Afin de résoudre ce paradoxe, il nous faut d’abord exposer la critique de la compréhension qui est consubstantielle au projet philosophique de Levinas. En nous appuyant sur quelques textes centraux de son œuvre, nous expliciterons à la fois le déficit éthique de la compréhension que pointe Levinas et les possibilités de sens au nom desquelles cette critique s’accomplit. Nous verrons ainsi ce qui conduit Levinas à suggérer qu’autrui, en son visage, témoigne d’un sens qui ferait exception à la structure gnoséologique du sensé que suppose l’herméneutique. Dans un deuxième temps, nous tenterons de cerner les raisons qui peuvent légitiment conduire Levinas à faire usage, dans le contexte de son herméneutique talmudique, des « concepts » nés de sa critique de la compréhension. L’étude du rapport entre éthique et herméneutique, entre texte et visage, nous conduira à identifier le principe directeur de l’herméneutique levinassienne et à articuler la façon dont il se rattache à l’éthique du visage. Finalement, nous tenterons de faire valoir la pertinence philosophique de l’herméneutique levinassienne en étudiant la manière dont elle peut rendre compte de phénomènes fondamentaux liés à l’interprétation des textes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire propose une analyse sémio-narrative d’un corpus de dix-neuf contes merveilleux recueillis auprès des conteurs canadiens-français et canadiens-hurons par l’anthropologue Charles-Marius Barbeau, au début du XXe siècle. Après avoir passé en revue les principales théories dans l’approche sémiotique du conte à partir de Vladimir Propp jusqu’à nos jours, nous avons procédé à une étude narrative du corpus selon la méthode du grand folkloriste russe : cela nous a permis d’en montrer la valeur exceptionnelle mais aussi les limites. Nous avons constaté ainsi que le travail sur un corpus inédit peut mener à l’identification de nouveaux éléments dans la structure du conte merveilleux. En poursuivant nos recherches sur les dix-neuf contes recueillis par Barbeau, nous sommes passée du schéma linéaire, syntagmatique de Propp aux modèles logiques de ses continuateurs, particulièrement celui élaboré par Guy Laflèche. Nos analyses ont mis en évidence non seulement le fait que la structure en miroir est un modèle valide auquel une partie des contes merveilleux se plie parfaitement (d’emblée l’exclusivité du schéma de Propp est mise en question, sinon infirmée), mais aussi que tout conte merveilleux est exceptionnellement organisé, structuré (ce qui confirme la théorie de Claude Bremond conformément à laquelle le récit narratif est une alternance de dégradations et d’améliorations). Enfin, la dernière partie du mémoire est une analyse sémio-discursive de notre corpus qui, au lieu d’être une simple accumulation de listes de mots, d’expressions et de figures, tente d’aborder la structure idéologique, grâce à une étude en parallèle d’un conte du corpus et de deux versions littéraires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les caractéristiques de l’enfant à la maternelle prédisent le succès des transitions à travers les premières années scolaires ainsi que la poursuite académique à l’âge de 22 ans. Les habiletés en mathématiques et langagières à la maternelle sont étroitement liées au rendement scolaire. Cependant, il est également important de tenir compte du rôle de l’autocontrôle et de la maîtrise de soi dans la réussite académique. Spécifiquement, la capacité de suivre des instructions et travailler de manière autonome pourrait faciliter l’adaptation des enfants en milieu scolaire. La présente thèse examine la valeur potentielle de cibler l’engagement scolaire à la maternelle, sous forme d’orientation vers la tâche, pour améliorer l’ajustement académique des enfants au cours du primaire. Une première étude, a examiné si l’engagement scolaire à la maternelle est associé à un meilleur niveau de réussite scolaire et d’ajustement psychosocial à la quatrième année du primaire. Les résultats suggèrent que les habitudes de travail dès l’entrée à l’école représentent des prédicteurs robustes du rendement académique quatre ans plus tard. Un plus haut niveau d’engagement prédit également moins de comportements externalisés et de victimisation par les pairs en quatrième année. Ces résultats sont demeurés significatifs suite au contrôle statistique des habilités en mathématique, langagières et socio-émotionnelles des enfants ainsi que de facteurs de risques familiaux. Une deuxième étude a examiné l’origine de l’engagement scolaire au primaire. Cette étude a permis d’observer que le niveau de contrôle cognitif des enfants d’âge préscolaire représente un prédicteur significatif de l’engagement scolaire à la maternelle. Ces résultats suggèrent l’existence d’une continuité développementale du contrôle cognitif de la petite enfance à la maternelle, et que celle-ci pourrait servir de base pour le développement de bonnes habitudes de travail au primaire. Finalement dans une troisième étude, des analyses centrées sur la personne ont été effectués. Trois sous-groupes d’enfants ont été identifiés dans notre échantillon. Les résultats obtenus indiquent des trajectoires d’engagement bas, moyen et élevé respectivement, au primaire. Le faible contrôle cognitif et les facteurs de risques familiaux ont prédit l’appartenance à la trajectoire d’engagement faible. Dans l’ensemble, les résultats de ces trois études soulignent l’importance de tenir compte de l’engagement dans les évaluations de la maturité scolaire à la maternelle. Cette recherche pourrait également informer le développement de programmes d’interventions préscolaires visant à augmenter la préparation scolaire ainsi que la réduction des écarts au niveau de la réussite académique des enfants.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire porte sur les raisons qu’ont de jeunes adultes québécois de discuter ou non de politique sur Internet. Il s’inscrit dans le contexte général de l’avènement du Web 2.0 et dans le contexte particulier des élections canadiennes de mai 2011. Au niveau théorique, nous avons mobilisé la théorie de l’agir communicationnel du philosophe allemand Jürgen Habermas ainsi que sa conception de la sphère publique. Du point de vue méthodologique, nous avons étudié un échantillon composé de jeunes adultes québécois, hommes et femmes, âgés de 19 à 30 ans, qui habitent à Montréal et dans ses environs. Ces jeunes citoyens ont été interrogés dans le cadre de quatre focus groups. Les données recueillies ont été analysées selon une méthode d’extraction des arguments en accord avec la méthodologie de la reconstruction rationnelle. Les résultats ont permis d’exposer plusieurs raisons qu’ont avancées les jeunes adultes interrogés pour expliquer leur degré de participation à des discussions politiques sur Internet. Celles-­‐ci ont été regroupées en quatre thèmes: le manque de connaissances et l’aspect public; la conscientisation et l’obtention de feedback; la réaction par rapport au contenu, la composition du réseau et la valeur de l’information; le face à face, l’anonymat et les sujets controversés. Ces résultats ont été discutés en considérant ceux obtenus par d’autres chercheurs afin de faire ressortir les apports de cette étude au domaine de la communication. La discussion a également permis d’adopter un point de vue théorique critique pour explorer ce que les résultats de ce mémoire révèlent sur l’état de la sphère publique québécoise.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Des données de Statistique Canada montrent que le Québec a perdu 86 700 emplois manufacturiers nets entre 2004 et 2008, ce qui représente un recul de 13,8% (Bernard, 2009). Un dollar canadien fort, la concurrence internationale, les délocalisations de la production et les consolidations globales d'opérations sont souvent mentionnés comme étant les causes des difficultés du secteur manufacturier canadien - principalement concentré au Québec et en Ontario. La crise financière amorcée à l’été 2007, a contribué à aggraver la crise propre au secteur manufacturier dont les origines remontent au début des années 2000 (Weir, 2007; AgirE, 2008; Pilat et al., 2006). Cette recherche examine le processus de restructuration du secteur manufacturier québécois de manière détaillée au niveau des établissements afin d’en évaluer l’ampleur et la nature entre 2003 et 2008. Les données colligées permettent de poser un regard unique et original sur les restructurations ayant impliqué des licenciements collectifs au Québec. Ces données sont issues de deux sources. D'abord, nous avons utilisé une liste d‘entreprises qui ont envoyé un avis de licenciement collectif au Ministère de l’Emploi et de la Solidarité sociale du Québec entre 2003 et 2008. En second lieu, nous avons eu recours aux archives en ligne des médias pour trouver d’autres évènements de restructuration non rapportés par le ministère ainsi que pour obtenir des informations complémentaires sur les évènements déjà compilés dans la liste du ministère. Notre méthodologie de recherche et notre typologie analytique des types de restructuration sont basées sur celles développées par l’European Monitoring Center on Change (EMCC) et reprises dans certaines études comme celles de Bronfenbrenner et Luce (2004) et Hickey et Schenk (soumis). Les résultats, présentés en termes d’événements de restructuration et d’emplois perdus, sont ventilés en fonction de quelques variables (année d’occurrence, taille de l’établissement, sous-secteur d’activité, intensité technologique, région administrative, types de restructuration). Les raisons données par l’entreprise afin de justifier la restructuration ont aussi été colligées. Au cours de la période étudiée, nous avons identifié au total 1 631 évènements de restructurations dans le secteur manufacturier à travers toutes les régions du Québec, qui ont entraîné la perte de 129 383 emplois. Ainsi, 78 246 emplois ont été perdus suite à la réduction des activités de l‘établissement et 51 137 emplois l’ont été suite à la fermeture de leur établissement. La forme la plus fréquente de restructuration est la restructuration interne, suivi par la faillite/fermeture. Les types de restructuration qui ont engendré le plus de pertes d’emplois en moyenne par évènement sont dans l’ordre, la délocalisation, la sous-traitance, la consolidation d’activités ainsi que la fusion-acquisition. L’année 2008 fut celle où il y a eu le plus grand nombre de restructurations. Montréal et la Montérégie sont les régions qui ont le plus été touchées par la restructuration, les pertes d’emplois et les fermetures d’établissements. Les industries à faible intensité technologique ont davantage été frappées par la crise manufacturière. C’est le sous-secteur du papier et du bois qui connu le plus grand nombre d’événements de restructurations. Ce sous-secteur a aussi subi les pertes d’emplois les plus importantes, suivi par le sous-secteur du textile et du vêtement. Ces deux industries se partagent plus de la moitié des fermetures d’établissements. L’insuffisance de la demande (22,1%), la concurrence internationale (14,3%), la hausse de la valeur du dollar canadien (11,2%), la réorganisation interne de l’entreprise (11,1%), la rationalisation des coûts visant une augmentation de la profitabilité (10,1%) ainsi que les difficultés financières (9,9%) sont les motifs principaux donnés par les employeurs. Nos résultats montrent qu’il y a eu deux temps dans l’évolution de la restructuration du secteur manufacturier au Québec. Un premier temps au début de la période où des changements structurels profonds ont été observés dans certaines industries (p.ex. le bois-papier et le textile-vêtement) et un second temps, en fin de période caractérisé par des changements davantage liés à la conjoncture en raison de la crise économique dont les effets commençaient à se faire sentir à ce moment (Institut de la statistique du Québec, 2009a).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche a eu pour objectif d’explorer les postures d’animateurs et d’animatrices scientifiques quant au dialogue « sciences en/et société » et les moyens qu’ils utilisent pour assurer ce dialogue à travers leurs interventions pédagogiques dans le cadre d’ateliers scientifiques hors scolaires. Six animateurs scientifiques ont été interviewés. Ces entretiens ont permis de recueillir des données riches sur leur compréhension de la nature des sciences, leurs postures pédagogiques en tant que transmetteur, guide ou médiateur du développement de l’alphabétisation scientifique chez les jeunes dans les espaces hors scolaires, ainsi que sur la manière dont ils perçoivent le rôle de leurs interventions pédagogiques dans le cadre du développement de l’alphabétisation scientifique chez les jeunes et de la compréhension qu’ils ont des sciences comme outil d’action sociopolitique, tel qu’entendu dans le dialogue « sciences en/et société ». Les postures épistémologiques, pédagogiques et sociales identifiées sont d’une grande diversité et révèlent des tendances qui s’inscrivent dans des spectres allant de l’empirisme au constructivisme, du divertissement à l’empowerment et de la valorisation de la place des sciences en société à la critique de sa primauté. Plusieurs animateurs scientifiques de notre échantillon ont ainsi eu des postures hybrides et parfois conflictuelles, ce qui met en évidence la valeur potentielle d’interventions éducatives qui donnent aux animateurs scientifiques l’occasion de questionner et de réexaminer de manière critique leurs pratiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'étude vise à évaluer l'exposition professionnelle au bruit des travailleurs d'une plateforme gazière en Algérie et à mettre en évidence des déterminants influençant cette exposition. Des groupes d'exposition homogène (GEH) ont été constitués sur la base de ressemblances quant à l'exposition au bruit, aux titres d'emploi et aux lieux de travail. Deux stratégies d'échantillonnage ont été suivies, la première selon la norme internationale ISO 9612 : 2009 et la seconde selon la stratégie aléatoire de l'AIHA. Pour les deux approches, les niveaux de bruit (Lex, 8h, niveaux d'exposition au bruit pondéré (A) ajustés à une journée de travail de 8 heures) des opérateurs et des superviseurs étaient généralement > 85 dB(A) alors que pour les techniciens-tableau, les niveaux de bruit (Lex, 8h) étaient en tout temps < 85 dB(A). Pour les trois GEH du titre d'emploi des maintenanciers, il y a eu régulièrement des dépassements de la valeur de référence. Plusieurs travailleurs oeuvrant sur les plateformes gazières sont exposés à des niveaux importants de bruit et sont à risque de développer des problèmes auditifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La recherche explore le rapport à l’école et aux savoirs scolaires de jeunes d’origine haïtienne en contexte scolaire défavorisé. Considérant des trajectoires contrastées d’élèves en réussite scolaire, d’élèves vulnérables et de jeunes décrocheurs, elle examine les processus qui concourent à la réussite socioscolaire des uns et à la moindre réussite des autres en interrogeant le sens que les jeunes accordent à l’école et à l’acte d’apprendre. La recherche documente par ailleurs la manière dont ce sens s’est construit dans la trajectoire socioscolaire depuis la maternelle. Cette approche basée sur des entretiens approfondis à caractère biographique permet d'avoir des hypothèses explicatives sur un résiduel non expliqué par les recherches quantitatives. Elle bonifie aussi la perspective de Charlot (2001) jugée trop centrée sur l'élève (Thésée, 2003). L’élève est au centre de la démarche, mais son rapport aux savoirs scolaires est analysé à travers l’exploration de la trajectoire de socialisation scolaire, familiale et communautaire et en croisant les regards des jeunes, des parents, enseignants et autres personnes significatives sur cette trajectoire. Selon les résultats de notre recherche, le rapport à l’école et aux savoirs scolaires semble plus complexe et critique chez les élèves en réussite qui identifient la valeur formative, qualifiante et socialisante de l’école. Ces derniers se mobilisent fortement dans leur apprentissage. En comparaison, les élèves en difficulté mettent plutôt l’accent sur la socialisation et la qualification et ils font preuve d’une moindre mobilisation scolaire. Certains d’entre eux se rapprochent des jeunes décrocheurs avec un rapport aux savoirs de non-sens et de désengagement. Mais au-delà de ces grandes lignes, le rapport à l’école et aux savoirs scolaires se décline différemment d’un jeune à l’autre, suivant des caractéristiques personnelles, familiales et sociales spécifiques et suivant le savoir/apprentissage scolaire considéré et son mode de transmission par l’enseignant. Les résultats de la recherche mettent en évidence le rôle d’acteur de l’élève dans son apprentissage, mais aussi celui des principaux contextes dans lesquels il évolue. L’école est particulièrement interpellée. Les élèves dénoncent la forme scolaire scripturale, perçue monotone lourde et rigide, et certaines pratiques enseignantes qui ne favorisent pas l’apprentissage (Fabre, 2007 ; Pépin, 1994). Les familles sont aussi interpellées quant à leurs valeurs, pratiques et cohésion. Enfin, la recherche souligne l’influence du réseau des pairs et des milieux communautaires. Apprendre et réussir à l’école se révèlent un enjeu individuel et social qui implique une mobilisation collective.