534 resultados para classique
Resumo:
Like its title, Pyramus and Thisbe 4 You, Alexandru Dabija’s production at the Odeon Theatre, Bucharest, was a tongue-in-cheek invitation to the audience that at once aimed to tease past and recent Romanian endeavours and to tease out the stage potential a Shakespeare play holds today. My examination of the production re-constructs the local cultural contexts the production plays with and against, referring to the Romanian ways of making Shakespeare this production enters into dialogue with. Take 1, an all-female version casting the mature stars of the Odeon, I read against both Elizabethan all-male stage practice and Andrei Serban’s all-female Lear at the Bulandra (2008). Take 2, “an old device” (V.1.50): a teacher-student “devising” session at the Academy of Theatre and Cinema, I read against critics’ “more strange than true” (V.1.2) parlance on “theories of perception and reception” and against hi-tech Shakespeare dominating the Romanian stages in the first decade of the third millennium. Take 3, local political banter on ethnic discrimination, I read as “satire keen and critical” (V.1.54) on both communist censorship and the recent rise of nationalism in Romania. Take 4, a “cold” reading-cum-improvisation performed by the technical crew – this production’s mechanicals – I read as “palpable-gross play” (V.1.376) on both acting and spectating practices. What I argue in this article is that Dabija’s production goes beyond its local context and mores, and proposes a re-assessment of Shakespeare’s cultural currency in (European) Romania and Europe at large by exposing current tyrannies in Shakespeare studies: from translation and adaptation, through directing and acting, to viewing and reviewing.
Resumo:
L’objectif de ce mémoire est une analyse et une évaluation de la retraduction en suédois de « Le Petit Prince » d’Antoine de Saint-Exupéry (T2), parue chez Modernista, en 2015, en relation avec le texte source en français et en relation avec la traduction classique, parue chez Rabén&Sjögren, en 1952 (T1 ; la version révisée de 2015, actuelle au moment de la retraduction). L’analyse se base sur quelques concepts de Lita Lundquist, notamment la distinction entre stratégie de traduction « imitative » et « fonctionnelle », et la cohérence entre la stratégie « globale » et les stratégies « locales ». De plus, notre analyse nous mène à la distinction entre « traduction » et « révision », comme présentée par Philippe Bouquet (2012), et à la distinction entre une définition linguistique de traduction – approche principale de ce travail – et une définition socio-culturelle selon Toury (1995). Les résultats principaux sont 1) la découverte d’un manque de stratégie globale cohérente dans la T2 – à la différence de la T1– et 2) une dépendance forte de la T1 dans la T2. Aussi, dans la retraduction, nous avons remarqué une stratégie locale remarquable de suppression totale du pronom personnel suédois de man. Ces résultats sont brièvement discutés sous la lumière des aspects socio-culturels et dans une section sur l’applicabilité de l’hypothèse de la retraduction (Tegelberg 2014).
Resumo:
La Cité de Dieu a été rédigée dans une perspective polémique vis-à-vis les païens. La prise de Rome, en 410, a entraîné en Afrique du Nord la venue d’une élite cultivée, revivaliste et admirative du vieux polythéisme. Contre cette mouvance nostalgique, tributaire des anciens majoritairement sur le plan intellectuel et livresque, Augustin s’en prend à la bibliothèque des nouveaux arrivants. La Cité de Dieu peut, le cas échéant, être lue par la négative, c’est-à-dire par le biais de la critique qu’élabore Augustin de trois auteurs choisis, Varron, Cicéron et Salluste, qui résument et représentent conjointement l’essence de la culture classique. Tant chez les païens que chez l’évêque d’Hippone – leur détracteur –, Varron incarne la fine pointe de la théologie romano-hellénistique, Salluste est celui qui a mené à sa perfection la discipline de l’histoire, Cicéron a écrit le parachèvement des oeuvres sur la République, et chacun préconise sa structure idéologique propre, les trois domaines formant pourtant un ensemble systémique. Tout en louant ses illustres prédécesseurs, Augustin leur porte une critique générale et c’est à cette critique que seront consacrées nos analyses.
Resumo:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
Resumo:
Résumé : Le transistor monoélectronique (SET) est un dispositif nanoélectronique très attractif à cause de son ultra-basse consommation d’énergie et sa forte densité d’intégration, mais il n’a pas les capacités suffisantes pour pouvoir remplacer complètement la technologie CMOS. Cependant, la combinaison de la technologie SET avec celle du CMOS est une voie intéressante puisqu’elle permet de profiter des forces de chacune, afin d’obtenir des circuits avec des fonctionnalités additionnelles et uniques. Cette thèse porte sur l’intégration 3D monolithique de nanodispositifs dans le back-end-of-line (BEOL) d’une puce CMOS. Cette approche permet d’obtenir des circuits hybrides et de donner une valeur ajoutée aux puces CMOS actuelles sans altérer le procédé de fabrication du niveau des transistors MOS. L’étude se base sur le procédé nanodamascène classique développé à l’UdeS qui a permis la fabrication de dispositifs nanoélectroniques sur un substrat de SiO2. Ce document présente les travaux réalisés sur l’optimisation du procédé de fabrication nanodamascène, afin de le rendre compatible avec le BEOL de circuits CMOS. Des procédés de gravure plasma adaptés à la fabrication de nanostructures métalliques et diélectriques sont ainsi développés. Le nouveau procédé nanodamascène inverse a permis de fabriquer des jonctions MIM et des SET métalliques sur une couche de SiO2. Les caractérisations électriques de MIM et de SET formés avec des jonctions TiN/Al2O3 ont permis de démontrer la présence de pièges dans les jonctions et la fonctionnalité d’un SET à basse température (1,5 K). Le transfert de ce procédé sur CMOS et le procédé d’interconnexions verticales sont aussi développés par la suite. Finalement, un circuit 3D composé d’un nanofil de titane connecté verticalement à un transistor MOS est réalisé et caractérisé avec succès. Les résultats obtenus lors de cette thèse permettent de valider la possibilité de co-intégrer verticalement des dispositifs nanoélectroniques avec une technologie CMOS, en utilisant un procédé de fabrication compatible.
Resumo:
Les changements climatiques récents ont mené à l’expansion de la répartition de plusieurs espèces méridionales, mais ont aussi causé l’extinction locale d’espèces se retrouvant à la limite de leur tolérance environnementale. Ces populations en expansion peuvent favoriser différentes stratégies d’histoire de vie en répondant à différents facteurs limitants. Dans cette thèse, je vise à déterminer et quantifier l’effet du climat et des évènements extrêmes sur le cycle de vie complet d’une espèce en expansion (le dindon sauvage) pour comprendre les changements au niveau populationnel ainsi que les mécanismes impliqués dans l’expansion de la distribution d’une espèce. J’ai défini les évènements extrêmes de pluie, d’épaisseur de neige au sol et de température, comme un évènement dont la fréquence est plus rare que le 10e et 90e percentile. En utilisant l’approche « Measure-Understand-Predict » (MUP), j’ai tout d’abord suivi trois populations le long d’un gradient latitudinal de sévérité hivernale pour mesurer l’effet de variables météorologiques sur la dynamique des populations. La survie des dindons sauvages diminuait drastiquement lorsque l’accumulation de neige au sol dépassait 30 cm pour une période de 10 jours et diminuait également avec la température. Au printemps, la persistance de la neige affectait négativement le taux d’initiation de la nidification et l’augmentation de la pluie diminuait la survie des nids. Dans une deuxième étape, j’ai examiné l’impact des évènements climatiques extrêmes et des processus démographiques impliqués dans l’expansion du dindon, liés à la théorie des histoires de vie pour comprendre la relation entre la dynamique de ces populations en expansions avec le climat. J’ai démontré que la fréquence des évènements extrêmes hivernaux et, d’une façon moins importante, les évènements extrêmes estivaux limitaient l’expansion nordique des dindons sauvages. J’ai appuyé, à l’aide de données empiriques et de modélisation, les hypothèses de la théorie classique des invasions biologiques en montrant que les populations en établissement priorisaient les paramètres reproducteurs tandis que la survie adulte était le paramètre démographique affectant le plus la dynamique des populations bien établies. De plus, les populations les plus au nord étaient composées d’individus plus jeunes ayant une espérance de vie plus faible, mais avaient un potentiel d’accroissement plus élevé que les populations établies, comme le suggère cette théorie. Finalement, j’ai projeté l’impact de la récolte sur la dynamique des populations de même que le taux de croissance de cette espèce en utilisant les conditions climatiques futures projetées par les modèles de l’IPCC. Les populations en établissement avaient un taux de récolte potentiel plus élevé, mais la proportion de mâles adultes, possédant des caractéristiques recherchées par les chasseurs, diminuait plus rapidement que dans les populations établies. Dans le futur, la fréquence des évènements extrêmes de pluie devrait augmenter tandis que la fréquence des évènements extrêmes de température hivernale et d’accumulation de neige au sol devraient diminuer après 2060, limitant probablement l’expansion nordique du dindon sauvage jusqu’en 2100. Cette thèse améliore notre compréhension des effets météorologiques et du climat sur l’expansion de la répartition des espèces ainsi que les mécanismes démographiques impliqués, et nous a permis de prédire la probabilité de l’expansion nordique de la répartition du dindon sauvage en réponse aux changements climatiques.
Resumo:
Lorsqu’une femme est à risque d’accoucher prématurément, des glucocorticoïdes lui seront administrés afin d’accélérer la maturation pulmonaire du bébé. Après la naissance, différents protocoles peuvent être mis en place pour aider l’enfant à respirer dont l’administration du surfactant et la ventilation. Les glucocorticoïdes ont un effet positif sur la maturation pulmonaire. Par contre, ils nuisent au processus de la septation après la naissance. Les glucocorticoïdes retrouvés dans le poumon en développement peuvent provenir de deux sources, soit de la voie classique de la synthèse des glucocorticoïdes par les surrénales, soit des gènes exprimés dans le poumon. Les sites d’expression des gènes codant pour les enzymes de la synthèse des glucocorticoïdes dans le poumon sont inconnus ainsi que le gène de la 20α-hydroxystéroïde déshydrogénase (20α-HSD). Cette dernière inactive le substrat et le produit de la 21-hydroxylase. Des poumons de fœtus de souris au jour de gestation 15,5, 17,5 et 19,5 ainsi que de souriceaux âgés de 0, 5 et 15 jours ont été utilisés pour des hybridations in situ. Cette étude a montré qu’avant la naissance, l’ARNm de la 21-hydroxylase est situé au niveau des cellules épithéliales distales alors que l’ARNm de la 20α-HSD se retrouve plutôt au niveau des capillaires. Les gènes de la 21-hydroxylase et de la 20α-HSD sont exprimés dans les cellules épithéliales proximales ainsi que dans les cellules endothéliales de veines dans la période entourant la naissance. À la fin du stade sacculaire et pendant le stade alvéolaire, le gène de la 21-hydroxylase est exprimé seulement dans les septa et les parois minces tout comme le gène de la 20α-HSD sauf dans le stade alvéolaire où il n’y avait pas de signal significatif. Ainsi, ces résultats suggèrent que la 20α-HSD pourrait participer au contrôle du niveau d’activité de la 21-hydroxylase en modulant la disponibilité de son substrat.
Resumo:
Il en va des organisations comme des personnes. Qu'on le veuille ou non, nous projetons tous une image auprès de nos interlocuteurs. Et c'est sur cette image que se fondent des décisions importantes : un consommateur va-t-il acheter un produit qu'il juge de mauvaise qualité ou trop cher, ou dont il ignore l'utilité? Une personne va-t-elle profiter d'un service public dont elle ignore l'existence? Nous vivons dans un monde de communication. Pour réussir, une organisation doit contrôler l'image qu'elle projette d'elle. Elle doit s'assurer d'être connue du public qui l'entoure. Elle doit faire comprendre ses produits, ses services et les objectifs qu'elle poursuit. De plus en plus d'organismes du secteur public et parapublic font maintenant appel à la recherche dans le but de leur permettre de prendre des décisions éclairées. Les institutions d'enseignement n'échappent pas à cette règle. Au cours des dernières années, la concurrence dans le secteur de l'enseignement secondaire s'est considérablement accrue. Même si la clientèle demeure aussi nombreuse dans les maisons d'enseignement privé de Montréal et de la Rive-Sud, il n'en demeure pas moins que les écoles publiques se sont prises en main, notamment en améliorant la qualité des services et le milieu de vie (Commission scolaire Sainte-Croix, École Pierre-Laporte; cours professionnels de ballet classique intégrés à un programme d'études secondaires régulier dans une école publique). Avec la sélection d'un projet éducatif précis dans chaque institution d'enseignement public, nous découvrons maintenant des écoles publiques spécialisées, possédant des personnalités différentes les unes des autres. Or, avec l'inversion de la pyramide des âges, la volonté de redressement des écoles publiques et leurs campagnes de sensibilisation auprès de la population, l'intégration des commissions scolaires, la concurrence existant entre les écoles privées, ces dernières doivent se définir un positionnement clair, net et précis sur l'échiquier concurrentiel. Afin de savoir si les écoles privées secondaires sont conscientes de leur image, nous avons analysé leur matériel promotionnel, c'est-à-dire brochures et dépliants. [...]
Resumo:
Les nombreux changements technologiques que nous connaissons révolutionnent nos modes de penser, d'agir et de vivre. Aucune connaissance n'est désormais définitive, aucun savoir à son apogée. Il faut constamment se recycler, s'ajuster, se perfectionner : d'où l'expansion actuelle de l'enseignement des adultes à différents niveaux d'enseignement. L'idée que l'éducation soit réservée aux jeunes qui se préparent à la vie, tandis que les adultes doivent se consacrer au travail pour gagner la leur, est en train de se modifier. La période dévolue à l'éducation de type classique déborde sur la vie adulte à mesure que les études scolaires se prolongent et que le désir de découvrir, d'apprendre, se développe. L'éducation permanente, à laquelle l'adulte consacre une partie de son temps, devient une pratique de plus en plus courante. En effet, depuis la réforme amorcée avec le rapport Parent, le système d'éducation québécois a connu une augmentation continue de sa population adulte. De nos jours encore, on ressent cette demande de formation de la part des adultes et il y a tout lieu de croire que cette tendance se poursuivra. (Conseil supérieur de l'éducation, 1988). […]
Resumo:
La présente étude a pour objet le perfectionnement des enseignants du secondaire technique par l'analyse et le savoir analyser de leurs actions. La mise à l'essai des dispositifs de la recherche offre une structure de formation qui favorise l'utilisation des connaissances théoriques dans l'acquisition de savoirs pratiques. À cet effet, des séances de travail conçues sous forme de travaux individuels prennent en compte les comportements de chaque sujet pour l'entraîner dans un processus d'analyse de sa relation pédagogique. Cette conception de la formation fait vivre aux Élèves Professeurs Techniques Adjoints (EPIA) une situation nouvelle d'apprentissage grâce à la médiation de la technologie vidéo. L'approche de perfectionnement ainsi élaborée, est issue des recherches de la psychologie cognitive. La démarche réflexive proposée met l'accent sur le processus de traitement de l'information des sujets. Cette façon de voir le perfectionnement des EPIA n'est pas une fin en soi, mais un moyen d'amener les personnes impliquées à une prise de conscience qui suscitera la réflexion sur les plans de perfectionnement. Dans la problématique de recherche, nous avons souligné le manque d'efficacité des plans de perfectionnement des enseignants et les conséquences directes qu'ils ont sur l'apprentissage des élèves. Le développement de ce problème, pour le moins préoccupant, nous invite à explorer parmi les structures de perfectionnement existantes, les possibilités d'une intervention qui permet à chacun de suivre selon son propre rythme. La méthodologie envisagée, se traduit par une alternance de moments théoriques et pratiques. Le modèle diffère du microenseignement classique par son mode opératoire, la présentation des problèmes éducatifs et les objectifs de formation poursuivis. La première microleçon présentée par les sujets sert à la rédaction d'une rétroaction sur la séquence d'enseignement. La deuxième microleçon est analysée par la technique du rappel stimulé. Un entretien semi-dirigé avec les sujets met fin à l'expérience. L'expérience est explorée auprès de cinq volontaires. Pour une première expérience d'autoscopie, les résultats indiquent que les EPIA identifient plus facilement les situations problématiques de leur enseignement. Aussi, ils sont plus réceptifs aux critiques et partagent leurs expériences avec le groupe. La plupart d'entre eux sont parvenus au stade de formulation des concepts de la démarche réflexive de Holborn (1992). À ce stade de la démarche, les sujets définissent souvent un projet de développement professionnel qu'ils voudront atteindre dans le futur. Notre hypothèse de recherche repose ainsi sur le point de vue de (Schön, 1994) selon lequel "Pour un praticien, savoir mettre le doigt sur le problème est au moins aussi important que savoir le résoudre". La conclusion que l'on peut tirer de cette recherche est que, pour apprendre à enseigner, le futur maître doit comprendre ce qui se passe dans la situation éducative qu'il rencontre ou qu'il crée.
Resumo:
Le processus de planification forestière hiérarchique présentement en place sur les terres publiques risque d’échouer à deux niveaux. Au niveau supérieur, le processus en place ne fournit pas une preuve suffisante de la durabilité du niveau de récolte actuel. À un niveau inférieur, le processus en place n’appuie pas la réalisation du plein potentiel de création de valeur de la ressource forestière, contraignant parfois inutilement la planification à court terme de la récolte. Ces échecs sont attribuables à certaines hypothèses implicites au modèle d’optimisation de la possibilité forestière, ce qui pourrait expliquer pourquoi ce problème n’est pas bien documenté dans la littérature. Nous utilisons la théorie de l’agence pour modéliser le processus de planification forestière hiérarchique sur les terres publiques. Nous développons un cadre de simulation itératif en deux étapes pour estimer l’effet à long terme de l’interaction entre l’État et le consommateur de fibre, nous permettant ainsi d’établir certaines conditions pouvant mener à des ruptures de stock. Nous proposons ensuite une formulation améliorée du modèle d’optimisation de la possibilité forestière. La formulation classique du modèle d’optimisation de la possibilité forestière (c.-à-d., maximisation du rendement soutenu en fibre) ne considère pas que le consommateur de fibre industriel souhaite maximiser son profit, mais suppose plutôt la consommation totale de l’offre de fibre à chaque période, peu importe le potentiel de création de valeur de celle-ci. Nous étendons la formulation classique du modèle d’optimisation de la possibilité forestière afin de permettre l’anticipation du comportement du consommateur de fibre, augmentant ainsi la probabilité que l’offre de fibre soit entièrement consommée, rétablissant ainsi la validité de l’hypothèse de consommation totale de l’offre de fibre implicite au modèle d’optimisation. Nous modélisons la relation principal-agent entre le gouvernement et l’industrie à l’aide d’une formulation biniveau du modèle optimisation, où le niveau supérieur représente le processus de détermination de la possibilité forestière (responsabilité du gouvernement), et le niveau inférieur représente le processus de consommation de la fibre (responsabilité de l’industrie). Nous montrons que la formulation biniveau peux atténuer le risque de ruptures de stock, améliorant ainsi la crédibilité du processus de planification forestière hiérarchique. Ensemble, le modèle biniveau d’optimisation de la possibilité forestière et la méthodologie que nous avons développée pour résoudre celui-ci à l’optimalité, représentent une alternative aux méthodes actuellement utilisées. Notre modèle biniveau et le cadre de simulation itérative représentent un pas vers l’avant en matière de technologie de planification forestière axée sur la création de valeur. L’intégration explicite d’objectifs et de contraintes industrielles au processus de planification forestière, dès la détermination de la possibilité forestière, devrait favoriser une collaboration accrue entre les instances gouvernementales et industrielles, permettant ainsi d’exploiter le plein potentiel de création de valeur de la ressource forestière.
Resumo:
En 1972, à l'occasion d'un cours sur les tiers partis politiques au Québec, nous avions eu à rédiger une brève étude sur le Parti Socialiste du Québec, étude qui s'était alors entièrement basée sur quelques articles des revues Parti Pris et Cité Libre ainsi que sur le journal Le Devoir des années 1963 à 1967. C'est à ce moment que notre intérêt fut éveillé et qu'il nous sembla que l'histoire du PSQ (1) pourrait constituer le sujet de notre thèse de maîtrise, pourvu, bien sûr, que de nouvelles sources de documentation s'avèrent accessibles. Or, une rencontre avec Fernand Daoust, Secrétaire Général de la FTQ, confirma notre intention. Avec une générosité incomparable, ce dernier mit à notre disposition, non seulement les documents qu'il avait accumulés, alors qu'il occupait successivement les postes de délégué NPD-Québec au Sous-comité du Programme et de Président du Conseil Provisoire du PSQ, mais aussi ceux de Jean-Marie Bédard, président du PSQ dans les dernières années d'existence de ce parti. Le présent travail s'appuie donc largement sur des sources primaires : documents du parti et articles publics par les journaux et revues de l'époque. On serait peut-être tenté de nous reprocher d'avoir négligé les sources orales, facilement disponibles pourtant. Or, cette omission a été intentionnelle et ce, pour deux raisons. Premièrement, les documents originaux nous fournissaient une récolte de renseignements inédits qui nous apparut suffisamment abondante pour étoffer notre thèse, et deuxièmement, nous avons craint que le manque de recul historique n'entache les témoignages d'une certaine partialité. Nous avons choisi de laisser les documents parler d'eux-mêmes. Le texte qui suit se veut donc avant tout un exposé d'un moment de l'histoire politique du Québec. Il aurait pu se limiter à l'étude des étapes vécues par le Parti Socialiste du Québec dans les années 1963 à 1968. En quelques chapitres, nous aurions pu relater successivement les origines, la mise sur pied, l'action politique et la dissolution de ce tiers parti et déjà, nous aurions eu les éléments de la thèse classique d'histoire politique. Cependant, pour mieux saisir l'effort de devenir du PSQ, il nous a semblé intéressant et même nécessaire de soulever, en parallèle aux événements principaux qui ont fait l'histoire de ce parti, trois hypothèses. La première est que le PSQ n'avait aucune chance de réussite, parce qu'au moment de son apparition sur la scène politique québécoise, les conjonctures historique, sociale et politique non seulement ne joueraient pas en sa faveur, mais seraient même les facteurs externes de son échec. Les deux autres hypothèses portent sur les facteurs internes de cet échec ; elles sont inhérentes au dualisme de l'idéologie du PSQ. […] 1) PSQ: sigle qui fut adopté officieusement par les membres du Parti Socialiste du Québec, qu'on retrouve dans tous les documents et que nous utiliserons tout au long de notre travail.
Resumo:
Les petites entreprises au Canada et au Nouveau-Brunswick sont devenues depuis une quinzaine d'années la principale source de création de nouveaux emplois. Les petites entreprises canadiennes (celles qui comptent moins de 1(X) employés) employaient 37% de la population active en 1987 et elles ont créé 81% des nouveaux emplois entre 1979 et 1988. Pour le Nouveau-Brunswick, les petites entreprises jouent un rôle encore plus grand: elles employaient 38% de la population active en 1987 et ont créé 88% des nouveaux emplois durant cette même période. La vitalité et la croissance des petites entreprises sont donc des facteurs cruciaux dans le développement socio-économique du Canada en général et du Nouveau-Brunswick en particulier. Pour assurer leur croissance, les petites entreprises ont besoin de financement, bien sûr, mais elles requièrent aussi du support technique sous forme de conseils et de perfectionnement de leurs ressources humaines. Jusqu'en 1990, les entrepreneurs du Nouveau-Brunswick qui cherchaient sur leur territoire du capital de risque n'avaient autre choix que de s'adresser au gouvernement fédéral ou provincial car ce service d'appui à la petite entreprise n'était pas offert dans le secteur privé, ou du moins n'était pas publiquement connu. En avril 1990, le Mouvement Coopératif Acadien annonça la création de la Société d'Investissement du Mouvement Acadien (SIMA) et lui donna justement le mandat de fournir aux petites entreprises coopératives et à capital-actions un accès à du capital de risque et au support technique pour assurer leur croissance. La SIMA adresse ses services aux entreprises acadiennes du Nouveau-Brunswick étant donné la spécificité culturelle de son membership. Quel genre de portefeuille d'investissement la SIMA a-t-elle constituté jusqu'à date? Quelle contribution a-t-elle apporté après deux ans à la croissance des entreprises acadiennes et au perfectionnement de leurs ressources humaines? C est à ces questions que s'intéresse ce travail et à lesquelles nous tenterons de répondre. Cet essai cherchera précisément à évaluer l'impact de la SIMA depuis 1990 jusqu'à la première moitié de 1992. Nous devons toutefois tenir compte du fait que notre étude ne pourra mesurer la performance ultime de la SIMA après deux ans d'activités. Comme le cycle d'affaires d'une société de capital de risque varie entre cinq et sept ans, nous apprécierons les accomplissements nous nous intéresserons aux tendances qui se dessinent en date de juin 1992. Afin de mieux saisir le caractère stratégique de l'initiative de la SIMA, nous examinerons dans un premier chapitre l'état de la petite entreprise et de l'emploi. Ensuite nous nous pencherons sur la problématique du financement de la petite entreprise, qu'elle soit coopérative ou à capital-actions, pour constater l'arrivée opportune de cette société d'investissement sur la scène acadienne. Nous découvrirons aussi les besoins non-monétaires des petites entreprises et cela nous permettra de vérifier si l'offrande de la SIMA en appui technique correspond aux besoins réels des entrepreneurs. Ayant ainsi pris connaissance de la dimension de la problématique, nous formulerons quelques hypothèses, dont les variables nous permettront de confirmer ou au contraire d'infirmer l'impact social et l'impact économique de la SIMA au Nouveau-Brunswick, Nous tiendrons compte, bien sûr, qu'au moment de notre enquête la Société n'est que dans la première phase de sa relation avec ses partenaires. Dans le deuxième chapitre, nous prendrons connaissance de la nature de cette activité économique qu'est le capital de risque. Nous ferons un recul dans l'histoire pour retracer les débuts de cette forme de capitalisme et nous dresserons un portrait sommaire de cette activité au Canada. Étant donné que ces services étaient déjà offerts au Nouveau-Brunswick avant 1990, avant l'arrivée de la SIMA, nous prendrons connaissance des principaux acteurs pour être en mesure de comparer leurs approches à celles de la SIMA. Afin de mieux connaître la Société d'Investissement du Mouvement Acadien, la dernière-née du Mouvement Coopératif Acadien, nous étudierons dans un autre chapitre sa structure interne et ses politiques d'investissement dans les petites entreprises. Nous ferons aussi la genèse de la SIMA, ce qui nous permettra de découvrir une pratique courante de collaboration entre le Mouvement Acadien et le Mouvement Desjardins du Québec. Nous ferons par la suite une analyse des données que nous avons recueillies sur le terrain dans le but de mesurer l'impact social de la SIMA. Nous ferons état de notre enquête dans les archives des médias francophones qui s'adressent à la communauté d'affaires acadienne ainsi qu'auprès de la Société elle-même pour constater ses démarches de communication. Parce que l'activité vedette la SIMA est celle d'investir, nous étudierons ensuite ses investissements dans les entreprises et nous tenterons d'évaluer l'impact économique de ses initiatives. Nous ferons également état des témoignages de quelques experts et observateurs de la question économique au Nouveau-Brunswick que nous avons interrogés dans le cadre de ce travail. Nous terminerons cet essai en dressant un bilan de l'intervention de la SIMA depuis sa création et, le cas échéant, nous formulerons quelques recommandations aux dirigeants de la SIMA. Nous sommes donc en présence d'un phénomène inusité dans le contexte acadien: une activité hautement capitaliste entreprise par un mouvement coopératif qui en a ai l'expérience, ni les valeurs. Et par ailleurs, nous effectuons notre étude de cette société bien avant la fin de son cycle productif, pour ainsi dire. C'est son caractère innovateur qui incite à son étude, même si les données que l'on pourra cueillir ne traduisaient que partiellement sa performance ultime. Par conséquent, ce travail ne saurait être une analyse d'impact dans le sens classique du terme, car il n'attend pas la fin du processus avant de poser un regard qui pourrait être utile aux coopérateurs dans le champ. Notre approche, qui combine la cueillette et l'analyse de données à des observations critiques d'experts, peut constituer un outil utile dans l'étude pilote d'un projet innovateur en coopération.
Resumo:
Le béton conventionnel (BC) a de nombreux problèmes tels que la corrosion de l’acier d'armature et les faibles résistances des constructions en béton. Par conséquent, la plupart des structures fabriquées avec du BC exigent une maintenance fréquent. Le béton fibré à ultra-hautes performances (BFUP) peut être conçu pour éliminer certaines des faiblesses caractéristiques du BC. Le BFUP est défini à travers le monde comme un béton ayant des propriétés mécaniques, de ductilité et de durabilité supérieures. Le BFUP classique comprend entre 800 kg/m³ et 1000 kg/m³ de ciment, de 25 à 35% massique (%m) de fumée de silice (FS), de 0 à 40%m de poudre de quartz (PQ) et 110-140%m de sable de quartz (SQ) (les pourcentages massiques sont basés sur la masse totale en ciment des mélanges). Le BFUP contient des fibres d'acier pour améliorer sa ductilité et sa résistance aux efforts de traction. Les quantités importantes de ciment utilisées pour produire un BFUP affectent non seulement les coûts de production et la consommation de ressources naturelles comme le calcaire, l'argile, le charbon et l'énergie électrique, mais affectent également négativement les dommages sur l'environnement en raison de la production substantielle de gaz à effet de serre dont le gas carbonique (CO[indice inférieur 2]). Par ailleurs, la distribution granulométrique du ciment présente des vides microscopiques qui peuvent être remplis avec des matières plus fines telles que la FS. Par contre, une grande quantité de FS est nécessaire pour combler ces vides uniquement avec de la FS (25 à 30%m du ciment) ce qui engendre des coûts élevés puisqu’il s’agit d’une ressource limitée. Aussi, la FS diminue de manière significative l’ouvrabilité des BFUP en raison de sa surface spécifique Blaine élevée. L’utilisation du PQ et du SQ est également coûteuse et consomme des ressources naturelles importantes. D’ailleurs, les PQ et SQ sont considérés comme des obstacles pour l’utilisation des BFUP à grande échelle dans le marché du béton, car ils ne parviennent pas à satisfaire les exigences environnementales. D’ailleurs, un rapport d'Environnement Canada stipule que le quartz provoque des dommages environnementaux immédiats et à long terme en raison de son effet biologique. Le BFUP est généralement vendu sur le marché comme un produit préemballé, ce qui limite les modifications de conception par l'utilisateur. Il est normalement transporté sur de longues distances, contrairement aux composantes des BC. Ceci contribue également à la génération de gaz à effet de serre et conduit à un coût plus élevé du produit final. Par conséquent, il existe le besoin de développer d’autres matériaux disponibles localement ayant des fonctions similaires pour remplacer partiellement ou totalement la fumée de silice, le sable de quartz ou la poudre de quartz, et donc de réduire la teneur en ciment dans BFUP, tout en ayant des propriétés comparables ou meilleures. De grandes quantités de déchets verre ne peuvent pas être recyclées en raison de leur fragilité, de leur couleur, ou des coûts élevés de recyclage. La plupart des déchets de verre vont dans les sites d'enfouissement, ce qui est indésirable puisqu’il s’agit d’un matériau non biodégradable et donc moins respectueux de l'environnement. Au cours des dernières années, des études ont été réalisées afin d’utiliser des déchets de verre comme ajout cimentaire alternatif (ACA) ou comme granulats ultrafins dans le béton, en fonction de la distribution granulométrique et de la composition chimique de ceux-ci. Cette thèse présente un nouveau type de béton écologique à base de déchets de verre à ultra-hautes performances (BEVUP) développé à l'Université de Sherbrooke. Les bétons ont été conçus à l’aide de déchets verre de particules de tailles variées et de l’optimisation granulaire de la des matrices granulaires et cimentaires. Les BEVUP peuvent être conçus avec une quantité réduite de ciment (400 à 800 kg/m³), de FS (50 à 220 kg/m³), de PQ (0 à 400 kg/m³), et de SQ (0-1200 kg/m³), tout en intégrant divers produits de déchets de verre: du sable de verre (SV) (0-1200 kg/m³) ayant un diamètre moyen (d[indice inférieur 50]) de 275 µm, une grande quantité de poudre de verre (PV) (200-700 kg/m³) ayant un d50 de 11 µm, une teneur modérée de poudre de verre fine (PVF) (50-200 kg/m³) avec d[indice inférieur] 50 de 3,8 µm. Le BEVUP contient également des fibres d'acier (pour augmenter la résistance à la traction et améliorer la ductilité), du superplastifiants (10-60 kg/m³) ainsi qu’un rapport eau-liant (E/L) aussi bas que celui de BFUP. Le remplacement du ciment et des particules de FS avec des particules de verre non-absorbantes et lisse améliore la rhéologie des BEVUP. De plus, l’utilisation de la PVF en remplacement de la FS réduit la surface spécifique totale nette d’un mélange de FS et de PVF. Puisque la surface spécifique nette des particules diminue, la quantité d’eau nécessaire pour lubrifier les surfaces des particules est moindre, ce qui permet d’obtenir un affaissement supérieur pour un même E/L. Aussi, l'utilisation de déchets de verre dans le béton abaisse la chaleur cumulative d'hydratation, ce qui contribue à minimiser le retrait de fissuration potentiel. En fonction de la composition des BEVUP et de la température de cure, ce type de béton peut atteindre des résistances à la compression allant de 130 à 230 MPa, des résistances à la flexion supérieures à 20 MPa, des résistances à la traction supérieure à 10 MPa et un module d'élasticité supérieur à 40 GPa. Les performances mécaniques de BEVUP sont améliorées grâce à la réactivité du verre amorphe, à l'optimisation granulométrique et la densification des mélanges. Les produits de déchets de verre dans les BEVUP ont un comportement pouzzolanique et réagissent avec la portlandite générée par l'hydratation du ciment. Cependant, ceci n’est pas le cas avec le sable de quartz ni la poudre de quartz dans le BFUP classique, qui réagissent à la température élevée de 400 °C. L'addition des déchets de verre améliore la densification de l'interface entre les particules. Les particules de déchets de verre ont une grande rigidité, ce qui augmente le module d'élasticité du béton. Le BEVUP a également une très bonne durabilité. Sa porosité capillaire est très faible, et le matériau est extrêmement résistant à la pénétration d’ions chlorure (≈ 8 coulombs). Sa résistance à l'abrasion (indice de pertes volumiques) est inférieure à 1,3. Le BEVUP ne subit pratiquement aucune détérioration aux cycles de gel-dégel, même après 1000 cycles. Après une évaluation des BEVUP en laboratoire, une mise à l'échelle a été réalisée avec un malaxeur de béton industriel et une validation en chantier avec de la construction de deux passerelles. Les propriétés mécaniques supérieures des BEVUP a permis de concevoir les passerelles avec des sections réduites d’environ de 60% par rapport aux sections faites de BC. Le BEVUP offre plusieurs avantages économiques et environnementaux. Il réduit le coût de production et l’empreinte carbone des structures construites de béton fibré à ultra-hautes performances (BFUP) classique, en utilisant des matériaux disponibles localement. Il réduit les émissions de CO[indice inférieur 2] associées à la production de clinkers de ciment (50% de remplacement du ciment) et utilise efficacement les ressources naturelles. De plus, la production de BEVUP permet de réduire les quantités de déchets de verre stockés ou mis en décharge qui causent des problèmes environnementaux et pourrait permettre de sauver des millions de dollars qui pourraient être dépensés dans le traitement de ces déchets. Enfin, il offre une solution alternative aux entreprises de construction dans la production de BFUP à moindre coût.
Resumo:
Les récepteurs couplés aux protéines G (RCPG) représentent la famille de récepteurs membranaires la plus étendue. Présentement, 30% des médicaments disponibles sur le marché agissent sur plus ou moins 4% des RCPG connus. Cela indique qu’il existe encore une multitude de RCPG à explorer, qui pourraient démontrer un potentiel thérapeutique intéressant pour des pathologies encore sans traitement disponible. La douleur chronique, qui affecte 1 canadien sur 5, fait partie de ces affections pour lesquelles les thérapies sont faiblement efficaces. Dans le but éventuel de pallier à ce problème, le projet de ce mémoire consistait à mieux comprendre les mécanismes régissant l’adressage membranaire du récepteur de la neurotensine de type 2 (NTS2), un RCPG dont l’activation induit des effets analgésiques puissants de type non opioïdergique. Des données du laboratoire ayant révélé une interaction entre la 3e boucle intracellulaire de NTS2 et la sécrétogranine III (SgIII), une protéine résidente de la voie de sécrétion régulée, notre objectif était de caractériser le rôle de SgIII dans la fonctionnalité du récepteur NTS2. Pour ce faire, l’interaction entre les deux protéines a d’abord été vérifiée par co-immunoprécipitation, GST pull down, essais de colocalisation subcellulaire et par FRET. Nous avons également utilisé un outil d’interférence à l’ARN (DsiRNA) pour invalider la protéine SgIII dans un modèle cellulaire neuronal et chez l’animal. Des essais de radioliaison sur le modèle cellulaire ont révélé une diminution de l’adressage de NTS2 à la membrane plasmique lorsque SgIII était supprimée. De la même façon, une invalidation de SgIII chez le rat inhibe les effets analgésiques d’un agoniste NTS2-sélectif (JMV-431), qui sont normalement observés dans le test de retrait de la queue (douleur aiguë). Nous avons cependant identifié que des stimulations au KCl, à la capsaïcine et à la neurotensine induisaient plutôt une insertion du récepteur à la membrane dans les cellules neuronales. Puisque l’interaction entre SgIII et la 3e boucle intracellulaire du récepteur NTS2 est peu probable selon un système de sécrétion classique, un modèle hypothétique de transition dans les corps multi-vésiculaires a été vérifié. Ainsi, la présence de NTS2 et de SgIII a été révélée dans des préparations exosomales de DRG F11, en plus d’une transférabilité du récepteur par le milieu extracellulaire. En somme, ces résultats démontrent la dépendance du récepteur NTS2 envers SgIII et la voie de sécrétion régulée, en plus d’identifier certains facteurs pouvant augmenter son expression à la surface cellulaire. Le projet contribue ainsi à ouvrir la voie vers des approches pour potentialiser les propriétés de NTS2 in vivo¸ en plus d’une piste d’explication concernant le trafic intracellulaire du récepteur.