454 resultados para réseaux numériques
Resumo:
La réalité des marchés de la drogue, opérés par des adolescents sur les lieux mêmes de leur école secondaire, demeure méconnue. L’actuelle recherche fut entreprise avec l’objectif d’explorer cet univers particulier. Pour y parvenir, cette étude a donné la parole à douze jeunes vendeurs adolescents, ayant transigé sur leur lieu d’enseignement. Les quatre objectifs spécifiques, définis au préalable, ont été atteints. Premièrement, selon les propos recueillis de la part des jeunes vendeurs, un phénomène de normalisation de la consommation de cannabis et certaines autres drogues serait bien présent au sein de cette population. Toutefois, les jeunes expliquent que leur définition de « normal » fluctuerait selon leur étape de vie du moment. Deuxièmement, toujours selon la compréhension des adolescents rencontrés, leur implication au sein du trafic de drogue s’expliquerait par trois facteurs: financier, réseautage, prestige et pouvoir. Troisièmement, les jeunes trafiquants rencontrés ont émis leur opinion sur l’efficacité des moyens de répression et de prévention situationnelle instaurés dans les écoles, ainsi que sur leurs astuces pour les déjouer. Ils ont aussi relaté une réalité de violence qui serait présente au sein de ces réseaux. Finalement, les jeunes interviewés ont explicité leur compréhension de l’impact des interventions tentées par l’école secondaire, pour les détourner de leur trajectoire criminelle. La conclusion essentielle de ce mémoire demeure le besoin, exprimé par ces adolescents, d’être encadrés et limités par leur environnement scolaire, parental et autres adultes de leur entourage. Comme il leur serait difficile de se discipliner; ils demandent qu’on les protège d’eux-mêmes.
Resumo:
Malgré une vaste littérature concernant les propriétés structurelles, électroniques et ther- modynamiques du silicium amorphe (a-Si), la structure microscopique de ce semi-cond- ucteur covalent échappe jusqu’à ce jour à une description exacte. Plusieurs questions demeurent en suspens, concernant par exemple la façon dont le désordre est distribué à travers la matrice amorphe : uniformément ou au sein de petites régions hautement déformées ? D’autre part, comment ce matériau relaxe-t-il : par des changements homo- gènes augmentant l’ordre à moyenne portée, par l’annihilation de défauts ponctuels ou par une combinaison de ces phénomènes ? Le premier article présenté dans ce mémoire propose une caractérisation des défauts de coordination, en terme de leur arrangement spatial et de leurs énergies de formation. De plus, les corrélations spatiales entre les défauts structurels sont examinées en se ba- sant sur un paramètre qui quantifie la probabilité que deux sites défectueux partagent un lien. Les géométries typiques associées aux atomes sous et sur-coordonnés sont extraites du modèle et décrites en utilisant les distributions partielles d’angles tétraédriques. L’in- fluence de la relaxation induite par le recuit sur les défauts structurels est également analysée. Le second article porte un regard sur la relation entre l’ordre à moyenne portée et la relaxation thermique. De récentes mesures expérimentales montrent que le silicium amorphe préparé par bombardement ionique, lorsque soumis à un recuit, subit des chan- gements structuraux qui laissent une signature dans la fonction de distribution radiale, et cela jusqu’à des distances correspondant à la troisième couche de voisins.[1, 2] Il n’est pas clair si ces changements sont une répercussion d’une augmentation de l’ordre à courte portée, ou s’ils sont réellement la manifestation d’un ordonnement parmi les angles dièdres, et cette section s’appuie sur des simulations numériques d’implantation ionique et de recuit, afin de répondre à cette question. D’autre part, les corrélations entre les angles tétraédriques et dièdres sont analysées à partir du modèle de a-Si.
Resumo:
À ce jour, les différentes méthodes de reconstruction des mouvements du plasma à la surface du Soleil qui ont été proposées présupposent une MHD idéale (Welsch et al., 2007). Cependant, Chae & Sakurai (2008) ont montré l’existence d’une diffusivité magnétique turbulente à la photosphère. Nous introduisons une généralisation de la méthode du Minimum Energy Fit (MEF ; Longcope, 2004) pour les plasmas résistifs. Le Resistive Minimum Energy Fit (MEF-R ; Tremblay & Vincent, 2014) reconstruit les champs de vitesse du plasma et la diffusivité magnétique turbulente qui satisfont à l’équation d’induction magnétique résistive et qui minimisent une fonctionnelle analogue à l’énergie cinétique totale. Une séquence de magnétogrammes et de Dopplergrammes sur les régions actives AR 9077 et AR 12158 ayant chacune produit une éruption de classe X a été utilisée dans MEF-R pour reconstruire les mouvements du plasma à la surface du Soleil. Les séquences temporelles des vitesses et des diffusivités magnétiques turbulentes calculées par MEF-R sont comparées au flux en rayons X mous enregistré par le satellite GOES-15 avant, pendant et après l’éruption. Pour AR 12158, nous observons une corrélation entre les valeurs significatives de la diffusivité magnétique turbulente et de la vitesse microturbulente pour les champs magnétiques faibles.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
Les restructurations et les mutations de plus en plus nombreuses dans les entreprises font évoluer la trajectoire de carrière des employés vers un cheminement moins linéaire et amènent une multiplication des changements de rôle (Delobbe & Vandenberghe, 2000). Les organisations doivent de plus en plus se soucier de l’intégration de ces nouveaux employés afin de leur transmettre les éléments fondamentaux du fonctionnement et de la culture qu’elles privilégient. Par contre, la plupart des recherches sur la socialisation organisationnelle portent sur les « meilleures pratiques », et les résultats qui en découlent sont mixtes. Cette étude comparative cherche à déterminer si et sur quelles variables les nouveaux employés socialisés par leur entreprise diffèrent des nouveaux employés « non socialisés ». Premièrement, cette étude vise à comparer ces deux groupes sur 1) les résultantes proximales (la maîtrise du contenu de la socialisation organisationnelle et la clarté de rôle) et 2) les résultantes distales (l’engagement organisationnel affectif, la satisfaction au travail et l’intention de quitter) du processus de socialisation organisationnelle, ainsi que sur 3) les caractéristiques des réseaux sociaux d’information, en contrôlant pour la proactivité. Dans un second temps, cette étude a pour objectif d’explorer si le processus de socialisation organisationnelle (les relations entre les variables) diffère entre les nouveaux employés socialisés ou non. Cinquante-trois nouveaux employés (moins d’un an d’ancienneté) d’une grande entreprise québécoise ont participé à cette étude. L’entreprise a un programme de socialisation en place, mais son exécution est laissée à la discrétion de chaque département, créant deux catégories de nouveaux employés : ceux qui ont été socialisés par leur département, et ceux qui n’ont pas été socialisés (« non socialisés »). Les participants ont été sondés sur les stratégies proactives, les résultantes proximales et distales et les caractéristiques des réseaux sociaux d’information. Pour le premier objectif, les résultats indiquent que les nouveaux employés socialisés maîtrisent mieux le contenu de la socialisation organisationnelle que les nouveaux employés non socialisés. En ce qui a trait au deuxième objectif, des différences dans le processus de socialisation organisationnelle ont été trouvées. Pour les nouveaux employés « non socialisés », la recherche proactive d’informations et la recherche de rétroaction sont liées à certaines caractéristiques des réseaux sociaux, alors que le cadrage positif est lié à la satisfaction au travail et à l’intention de quitter, et que la clarté de rôle est liée uniquement à la satisfaction au travail. Les nouveaux employés socialisés, quant à eux, démontrent des liens entre la maîtrise du contenu de la socialisation organisationnelle et chacune des résultantes distales (l’engagement organisationnel affectif, la satisfaction au travail et l’intention de quitter). Globalement, l’intégration des nouveaux employés non socialisés serait plutôt influencée par leurs stratégies proactives, tandis que celle des nouveaux employés non socialisés serait facilitée par leur maîtrise du contenu de la socialisation organisationnelle. De façon générale, cette étude comparative offre un aperçu intéressant des nouveaux employés rarement trouvé dans les recherches portant sur les « meilleures pratiques » de la socialisation organisationnelle. Des recommandations pour la recherche et la pratique en suivent.
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Resumo:
Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.
Resumo:
Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.
Resumo:
INTRODUCTION : L’articulation temporo-mandibulaire (ATM) est un système articulaire excessivement complexe. L'étiologie des désordres temporo-mandibulaires (DTM) est encore incertaine et le lien de cause à effet des traitements orthodontiques en tant que facteur de risque est une question qui a longuement été discutée. Cette étude clinique prospective vise à évaluer les effets à long terme du port continu de coquilles correctrices Invisalign® sur l’ATM et les muscles du complexe facial. MATÉRIELS ET MÉTHODES : L'étude incluait 43 adolescents et adultes âgés entre 13 et 51 ans (25 femmes et 18 hommes). Deux d'entre eux ont été exclus en raison de mauvaise coopération causant l’arrêt du traitement orthodontique. Les effets dans le temps des coquilles sur l'ATM et les muscles du complexe facial ont été évalués en utilisant l’examen du Research Diagnostic Criteria for Temporomandibular Disorders (RDC/TMD). Le nombre de contractions musculaires durant le sommeil a été mesuré objectivement par enregistrements électromyographiques (EMG) et la fréquence de grincement et de serrement des dents à l’éveil a été rapportée subjectivement par les patients à l’aide de questionnaires. Des mesures répétées ont été effectuées aux temps suivants: avant le début du traitement pour les données contrôles (T1), deux semaines (T2), et six mois (T3) après le début du traitement. Les données numériques ont été analysées par l’analyse de variance (ANOVA) en mesures répétées et la méthode de Brunner-Langer, alors que les données nominales ont été évaluées par le test de Cochran-Mantel-Haenszel. Les résultats ont été considérés significatifs si p < 0.05. RÉSULTATS ET DISCUSSION : Le nombre de contractions musculaires par heure (index) durant le sommeil et leur durée moyenne n’ont pas été statistiquement différents entre les trois nuits d’enregistrement EMG (Brunner Langer, p > 0.005). Cependant, 67 % des participants ont rapporté avoir eu du grincement ou du serrement des dents la nuit au T2 et 64 % au T3 comparativement à 39 % au T1, ce qui était une augmentation significative (Cochran-Mantel-Haenszel, p = 0.0112). Quarante-quatre pour cent des patients ont signalé du grincement ou du serrement des dents pendant le jour au T1, tandis qu'un pourcentage nettement plus élevé de 66 % en a rapporté au T2 et 61 % au T3 (Cochran-Mantel-Haenszel, p = 0.0294). Au T1, 12 % des sujets ont indiqué qu'ils se sont réveillés avec une douleur musculaire, comparativement à 29 % au T2, ce qui était une augmentation significative (Cochran-Mantel-Haenszel, p = 0.0347). Au T2, il y avait une réduction significative des mouvements maximaux de la mandibule dans toutes les directions (ANOVA en mesures répétées, p < 0,05). De plus, il y a eu une augmentation significative du nombre de sites douloureux et de l'intensité de la douleur à la palpation de l'ATM et des muscles faciaux avec l'évaluation du RDC/TMD au T2 en comparaison aux T1 et T3 (Brunner Langer, p < 0,05). CONCLUSION : La présente étude n’a révélé aucun effet des coquilles sur l’activité oro-faciale durant le sommeil au fil du temps mesurée objectivement à l’aide des enregistrements EMG, mais une augmentation significative de la fréquence du grincement et du serrement des dents rapportée subjectivement par les patients au moyen des questionnaires aux T2 et T3. Au T2, il y avait une augmentation significative des symptômes de l'ATM et des muscles du complexe oro-facial, mais ces symptômes sont retournés au niveau initial avec le temps.
Resumo:
Beaucoup d'efforts dans le domaine des matériaux polymères sont déployés pour développer de nouveaux matériaux fonctionnels pour des applications spécifiques, souvent très sophistiquées, en employant des méthodes simplifiées de synthèse et de préparation. Cette thèse porte sur les polymères photosensibles – i.e. des matériaux fonctionnels qui répondent de diverses manières à la lumière – qui sont préparés à l'aide de la chimie supramoléculaire – i.e. une méthode de préparation qui repose sur l'auto-assemblage spontané de motifs moléculaires plus simples via des interactions non covalentes pour former le matériau final désiré. Deux types de matériaux photosensibles ont été ciblés, à savoir les élastomères thermoplastiques à base de copolymères à blocs (TPE) et les complexes d'homopolymères photosensibles. Les TPEs sont des matériaux bien connus, et même commercialisés, qui sont généralement composés d’un copolymère tribloc, avec un bloc central très flexible et des blocs terminaux rigides qui présentent une séparation de phase menant à des domaines durs isolés, composés des blocs terminaux rigides, dans une matrice molle formée du bloc central flexible, et ils ont l'avantage d'être recyclable. Pour la première fois, au meilleur de notre connaissance, nous avons préparé ces matériaux avec des propriétés photosensibles, basé sur la complexation supramoléculaire entre un copolymère tribloc simple parent et une petite molécule possédant une fonctionnalité photosensible via un groupe azobenzène. Plus précisément, il s’agit de la complexation ionique entre la forme quaternisée d'un copolymère à blocs, le poly(méthacrylate de diméthylaminoéthyle)-poly(acrylate de n-butyle)-poly(méthacrylate de diméthylaminoéthyle) (PDM-PnBA-PDM), synthétisé par polymérisation radicalaire par transfert d’atomes (ATRP), et l'orange de méthyle (MO), un composé azo disponible commercialement comportant un groupement SO3 -. Le PnBA possède une température de transition vitreuse en dessous de la température ambiante (-46 °C) et les blocs terminaux de PDM complexés avec le MO ont une température de transition vitreuse élevée (140-180 °C, en fonction de la masse molaire). Des tests simples d'élasticité montrent que les copolymères à blocs complexés avec des fractions massiques allant de 20 à 30% présentent un caractère élastomère. Des mesures d’AFM et de TEM (microscopie à force atomique et électronique à ii transmission) de films préparés à l’aide de la méthode de la tournette, montrent une corrélation entre le caractère élastomère et les morphologies où les blocs rigides forment une phase minoritaire dispersée (domaines sphériques ou cylindriques courts). Une phase dure continue (morphologie inversée) est observée pour une fraction massique en blocs rigides d'environ 37%, ce qui est beaucoup plus faible que celle observée pour les copolymères à blocs neutres, dû aux interactions ioniques. La réversibilité de la photoisomérisation a été démontrée pour ces matériaux, à la fois en solution et sous forme de film. La synthèse du copolymère à blocs PDM-PnBA-PDM a ensuite été optimisée en utilisant la technique d'échange d'halogène en ATRP, ainsi qu’en apportant d'autres modifications à la recette de polymérisation. Des produits monodisperses ont été obtenus à la fois pour la macroamorceur et le copolymère à blocs. À partir d'un seul copolymère à blocs parent, une série de copolymères à blocs partiellement/complètement quaternisés et complexés ont été préparés. Des tests préliminaires de traction sur les copolymères à blocs complexés avec le MO ont montré que leur élasticité est corrélée avec la fraction massique du bloc dur, qui peut être ajustée par le degré de quaternisation et de complexation. Finalement, une série de complexes d'homopolymères auto-assemblés à partir du PDM et de trois dérivés azobenzènes portant des groupes (OH, COOH et SO3) capables d'interactions directionnelles avec le groupement amino du PDM ont été préparés, où les dérivés azo sont associés avec le PDM, respectivement, via des interactions hydrogène, des liaisons ioniques combinées à une liaison hydrogène à travers un transfert de proton (acidebase), et des interactions purement ioniques. L'influence de la teneur en azo et du type de liaison sur la facilité d’inscription des réseaux de diffraction (SRG) a été étudiée. L’efficacité de diffraction des SRGs et la profondeur des réseaux inscrits à partir de films préparés à la méthode de la tournette montrent que la liaison ionique et une teneur élevée en azo conduit à une formation plus efficace des SRGs.
Resumo:
La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.
Resumo:
Le système hématopoïétique est un tissu en constant renouvellement et les cellules souches hématopoïétiques (CSHs) sont indispensables pour soutenir la production des cellules matures du sang. Deux fonctions définissent les CSHs; la propriété d’auto-renouvellement, soit la capacité de préserver l’identité cellulaire suivant une division, et la multipotence, le potentiel de différenciation permettant de générer toutes les lignées hématopoïétiques. Chez l’adulte, la majorité des CSHs sont quiescentes et l’altération de cet état corrèle avec une diminution du potentiel de reconstitution des CSHs, suggérant que la quiescence protège les fonctions des CSHs. La quiescence est un état réversible et dynamique et les réseaux génétiques le contrôlant restent peu connus. Un nombre croissant d’évidences suggère que si à l’état d’homéostasie il y a une certaine redondance entre les gènes impliqués dans ces réseaux de contrôle, leurs rôles spécifiques sont révélés en situation de stress. La famille des bHLHs (basic helix-loop-helix) inclue différentes classes des protéines dont ceux qui sont tissu-spécifiques comme SCL, et les protéines E, comme E12/E47 et HEB. Certains bHLHs sont proposés êtres important pour la fonction des cellules souches, mais cela ne fait pas l’unanimité, car selon le contexte cellulaire, il y a redondance entre ces facteurs. La question reste donc entière, y a-t-il un rôle redondant entre les bHLHs d’une même classe pour la fonction à long-terme des CSHs? Les travaux présentés dans cette thèse visaient dans un premier temps à explorer le lien encore mal compris entre la quiescence et la fonction des CSHs en mesurant leurs facultés suite à un stress prolifératif intense et dans un deuxième temps, investiguer l’importance et la spécificité de trois gènes pour la fonction des CSHs adultes, soit Scl/Tal1, E2a/Tcf3 et Heb/Tcf12. Pour répondre à ces questions, une approche cellulaire (stress prolifératif) a été combinée avec une approche génétique (invalidation génique). Plus précisément, la résistance des CSHs au stress prolifératif a été étudiée en utilisant deux tests fonctionnels quantitatifs optimisés, soit un traitement basé sur le 5-fluorouracil, une drogue de chimiothérapie, et la transplantation sérielle en nombre limite. Dans la mesure où la fonction d’un réseau génique ne peut être révélée que par une perturbation intrinsèque, trois modèles de souris, i.e. Scl+/-, E2a+/- et Heb+/- ont été utilisés. Ceci a permis de révéler que l’adaptation des CSHs au stress prolifératif et le retour à l’équilibre est strictement contrôlé par les niveaux de Scl, lesquels règlent le métabolisme cellulaire des CSHs en maintenant l’expression de gènes ribosomaux à un niveau basal. D’autre part, bien que les composantes du réseau puissent paraître redondants à l’équilibre, mes travaux montrent qu’en situation de stress prolifératif, les niveaux de Heb restreignent la prolifération excessive des CSHs en induisant la sénescence et que cette fonction ne peut pas être compensée par E2a. En conclusion, les résultats présentés dans cette thèse montrent que les CSHs peuvent tolérer un stress prolifératif intense ainsi que des dommages à l’ADN non-réparés, tout en maintenant leur capacité de reconstituer l’hématopoïèse à long-terme. Cela implique cependant que leur métabolisme revienne au niveau de base, soit celui trouvé à l’état d’homéostasie. Par contre, avec l’augmentation du nombre de division cellulaire les CSHs atteignent éventuellement une limite d’expansion et entrent en sénescence.
Resumo:
Travail dirigé présenté à l'École de Criminologie en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en criminologie option criminalistique et information
Resumo:
Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6850 – Recherche individuelle, à l'hiver 2015
Resumo:
Le concept de mouvement social, dans sa définition usuelle, fait référence à l’ensemble des militants et des organisations, qui, structurés plus ou moins formellement en réseaux, développent des actions concertées en faveur d’une cause plus ou moins définie. Quelle que soit l’approche théorique considérée, les organisations du mouvement social sont présentées comme distinctes de partis politiques perçus comme des acteurs de la politique institutionnelle, intervenant au sein de l’arène électorale. Dans cette perspective, les partis politiques et les mouvements sociaux entretiennent évidemment des relations, mais sont présentés comme opérant sur des terrains de jeux disjoints : la représentation politique institutionnalisée pour les uns, le champ de la protestation sociale pour les autres. Pourtant, la « frontière » entre participation politique institutionnelle et extra-institutionnelle est on ne peut plus poreuse. Dans cet article, nous soutenons que, dans certaines configurations de mouvements sociaux, les partis politiques peuvent faire partie intégrante du mouvement social dont ils sont issus et en constituent même les acteurs pivots. En basant notre démonstration sur le cas du mouvement souverainiste au Québec et sa transformation au cours des 40 dernières années, nous montrons comment le Parti québécois et le Bloc québécois se trouvent au coeur de la mouvance souverainiste et contribuent encore, vaille que vaille, à la définition d’un mouvement qui les dépasse.