201 resultados para Trouble du déficit de l’attention avec hyperactivité
Resumo:
Les buts des recherches présentées dans cette thèse étaient d’évaluer le rôle de la stéréoscopie dans la reconnaissance de forme, dans la perception du relief et dans la constance de forme. La première étude a examiné le rôle de la stéréoscopie dans la perception des formes visuelles en utilisant une tâche de reconnaissance de formes. Les stimuli pouvaient être présentés en 2D, avec disparité normale (3D) ou avec disparité inversée. La performance de reconnaissance était meilleure avec les modes de présentation 2D et 3D qu’avec la 3D inversée. Cela indique que la stéréoscopie contribue à la reconnaissance de forme. La deuxième étude s’est intéressée à la contribution conjointe de l’ombrage et de la stéréoscopie dans la perception du relief des formes. Les stimuli étaient des images d’une forme 3D convexe synthétique présentée sous un point de vue menant à une ambigüité quant à sa convexité. L’illumination pouvait provenir du haut ou du bas et de la gauche ou de la droite, et les stimuli étaient présentés dichoptiquement avec soit de la disparité binoculaire normale, de la disparité inversée ou sans disparité entre les vues. Les participants ont répondu que les formes étaient convexes plus souvent lorsque la lumière provenait du haut que du bas, plus souvent avec la disparité normale qu’en 2D, et plus souvent avec absence de disparité qu’avec disparité inversée. Les effets de direction d’illumination et du mode de présentation étaient additifs, c’est-à-dire qu’ils n’interagissaient pas. Cela indique que l’ombrage et la stéréoscopie contribuent indépendamment à la perception du relief des formes. La troisième étude a évalué la contribution de la stéréoscopie à la constance de forme, et son interaction avec l’expertise perceptuelle. Elle a utilisé trois tâches de discrimination séquentielle de trombones tordus ayant subi des rotations en profondeur. Les stimuli pouvaient être présentés sans stéréoscopie, avec stéréoscopie normale ou avec stéréoscopie inversée. Dans la première moitié de l’Exp. 1, dans laquelle les variations du mode de présentation étaient intra-sujets, les performances étaient meilleures en 3D qu’en 2D et qu’en 3D inversée. Ces effets ont été renversés dans la seconde moitié de l’expérience, et les coûts de rotation sont devenus plus faibles pour la 2D et la 3D inversée que pour la 3D. Dans les Exps. 2 (variations intra-sujets du mode de présentation, avec un changement de stimuli au milieu de l’expérience) et 3 (variations inter-sujets du mode de présentation), les effets de rotation étaient en tout temps plus faibles avec stéréoscopie qu’avec stéréoscopie inversée et qu’en 2D, et plus faibles avec stéréoscopie inversée que sans stéréoscopie. Ces résultats indiquent que la stéréoscopie contribue à la constance de forme. Toutefois, cela demande qu’elle soit valide avec un niveau minimal de consistance, sinon elle devient stratégiquement ignorée. En bref, les trois études présentées dans cette thèse ont permis de montrer que la stéréoscopie contribue à la reconnaissance de forme, à la perception du relief et à la constance de forme. De plus, l’ombrage et la stéréoscopie sont intégrés linéairement.
Resumo:
Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.
Resumo:
Escherichia coli produit diverses entérotoxines thermolabiles et thermostables. STb est une toxine de faible poids moléculaire résistant à la chaleur chargée de la diarrhée chez les animaux de la ferme. Une étude antérieure a montré que les cellules ayant internalisé la toxine STb provoquent un dysfonctionnement de la barrière épithéliale par des changements dans les protéines des jonctions serrées (TJ). Ces modifications contribuent probablement à la diarrhée observée. Pour mieux comprendre le mécanisme de l'augmentation de la perméabilité intestinale, nous avons traité les cellules du côlon humain (T84) avec la toxine purifiée STb une fois que les cellules ont été récoltées et les protéines extraites. Après l'utilisation d'une solution contenant 1% de Nonidet P-40 (un détergent non dénaturant, non ionique), nous avons étudié la distribution de la claudine -1, une protéine majeure des TJs, responsable de l'imperméabilité de l'épithélium, entre la membrane (NP40-insoluble) et le cytoplasme (NP40-soluble). En utilisant l’immunoblot et la microscopie confocale, nous avons observé que le traitement des monocouches de cellules T84 avec STb induit la redistribution de la claudine-1. Après 24h, les cellules cultivées en milieu faible en Ca+ (5 uM) et traitées par STb, ont montré qu’environ 40 % de plus de la claudine-1 se sont délogées dans le cytoplasme par comparaison au contrôle. En passant d’un milieu faible à un milieu contenant des quantités physiologiques de Ca++ (1,8 mM) nous avons observé une augmentation du taux de claudine- 1 délogé, comme la délocalisation comparable et ce, après 6h. Un milieu supplémenté avec la même concentration de Mg++ ou Zn++ n'a pas affecté le taux de délogement comparé au milieu contenant une faible teneur en Ca++. En utilisant des anticorps anti-phosphosérine et anti-phosphothréonine, nous avons observé que la perte des claudines-1 de la membrane a été accompagnée par une déphosphorylation de cette protéine des TJs. Dans l'ensemble, nos résultats ont montré une importante redistribution de la claudine-1 dans les cellules traitées par la toxine STb. La perte de la claudine-1 phosphorylée de la membrane est susceptible d'être impliquée dans la perméabilité accrue observée. Les mécanismes par lesquels ces changements sont provoqués restent à élucider.
Resumo:
Les preuves astronomiques stipulent qu'environ 4\% de la densité de masse-énergie de l'univers serait composé d'atomes. Le reste est séparé entre la matière sombre, qui représente 24\% de la densité de masse-énergie, et l'énergie sombre, qui s'accapare les 71\% restant. Le neutralino est une particule prédite par la théorie de la supersymétrie et est un candidat à la composition de la matière sombre. Le Projet d'Identification des Candidats Supersymétriques Sombres (PICASSO) vise à détecter le neutralino en utilisant des détecteurs à gouttelettes de C$_4$F$_{10}$ en surchauffe. Lors du passage d'une particule dans les gouttelettes de C$_4$F$_{10}$, une transition de phase aura lieu si l'énergie déposée est au-delà du seuil prédit par le critère de nucléation d'une transition de phase (théorie de Seitz). L'onde acoustique émise durant la transition de phase est ensuite transformée en impulsion électrique par des capteurs piézoélectriques placés sur le pourtour du détecteur. Le signal est amplifié, numérisé puis enregistré afin de pouvoir être analysé par des outils numériques. L'ouvrage qui suit présente les travaux effectués sur la compréhension des signaux des détecteurs à gouttelettes en surchauffe dans le but d'améliorer la discrimination du bruit de fond. Un détecteur à petites gouttelettes, r $\approx 15\mu m$ a été étudié et comparé à une simulation Monte Carlo. Il s'est avéré que les possibilités de discrimination du bruit de fond provenant des particules alpha étaient réduites pour un détecteur à petites gouttelettes, et ce en accord avec le modèle théorique. Différentes composantes du système d'acquisition ont été testées dont le couplage entre le capteur piézoélectrique et la paroi en acrylique, l'efficacité des capteurs piézoélectriques à gain intégré et les conséquences de la force du gain sur la qualité du signal. Une comparaison avec des résultats de l'expérience SIMPLE (Superheated Instrument for Massive ParticLe Experiments) a été effectuée en mesurant des signaux de détecteurs PICASSO à l'aide d'un microphone électrostatique à électret. Il a été conclu que les détecteurs PICASSO ne parviennent pas à reproduire la discrimination quasi parfaite présentée par SIMPLE.
Resumo:
Les mécanismes qui entretiennent le cycle magnétique solaire sont encore aujourd’hui relativement mal compris. Entre autres, certains travaux suggèrent la présence d’insta- bilités magnétohydrodynamiques qui pourraient avoir une influence significative sur la période du cycle par leur capacité à accélérer la destruction des structures magnétiques à grandes échelles. Nous analysons la présence des instabilités au sein des simulations effectuées à l’aide du modèle EULAG-MHD en utilisant premièrement une méthodologie basée sur un proxy spécifique associé à l’instabilité et en le comparant à un proxy similaire, mais pour le cycle magnétique solaire observé dans notre modèle. Cette méthodologie fait ressortir une évolution temporellement cyclique du proxy de l’instabilité avec des amplitudes similaires au proxy du cycle magnétique, mais présentant un léger déphasage. Nous poursuivons cette analyse en appliquant une méthode se basant sur le découpage de “zones instables” via le critère de Tayler dans la zone stable de notre modèle. L’application expose une migration équatoriale d’une zone instable qui débute à très hautes latitudes aux pôles, passe par le champ toroïdal classique, accélère et atteint l’équateur. Cette zone instable semble accélérer la destruction du champ magnétique présent, laissant place au nouveau champ pour la prochaine demie-période du cycle. La combinaison de ces deux analyses permet d’énoncer un scénario plausible qui inclut les effets d’une telle instabilité sur le cycle magnétique ainsi que sur la stabilité globale de notre simulation. Dans ce scénario, il est important de noter que les inversions de polarités semblent indépendantes de cette instabilité, qui ne ferait qu’accélérer le processus de destruction du champ déjà en place.
Resumo:
Ce projet offre une analyse des traductions en langue française du roman d’Aphra Behn, Oronooko, or The Royal Slave (1688). Dans cette œuvre, la première femme à vivre de sa plume présente une des premières formulations du discours abolitionniste de la littérature anglaise et met au défi des idées reçues sur l’esclavage depuis le XVIIe siècle. Le texte a été traduit vers le français pour la première fois par Pierre-Antoine de La Place (Behn, 1745), dont l’interprétation s’inscrit dans la tradition des belles infidèles. Sa version connaît un succès fulgurant jusqu’à la fin du XVIIIe siècle, avec de nombreuses rééditions parues entre 1745 et 1799. En 1990, Bernard Dhuicq publie une retraduction dans le but de faire connaître Behn aux lecteurs français du XXe siècle. En 2008, il contribue à la préparation d’une nouvelle édition de La Place, et une réédition de sa propre traduction parue en 1990. Pour sa part, Guillaume Villeneuve adapte le texte au lectorat francophone d’aujourd’hui avec une édition critique comprenant un important appareil critique publiée dans la collection « GF » des Éditions Flammarion en 2009. Les traductions de La Place, d’Dhuicq et de Villeneuve affichent chacune des variations par rapport à l’original, variations qui reflètent l’intention de ces traducteurs et de leurs éditeurs ainsi que les pratiques traductives et éditoriales de leur époque.. Cette étude montre notamment comment le récit de Behn a contribué à changer la conception occidentale de l’esclavage. Elle analyse la réception des propos idéologiques d’Oroonoko dans la culture littéraire et philosophique française, depuis le XVIIIe siècle jusqu’à nos jours. À travers le cas Oronooko, le présent mémoire offre aussi une réflexion d’ordre méthodologique sur l’étude des retraductions dans une perspective historique. L’étude des retraductions vise aujourd’hui des objectifs plus vastes sur le plan historique que ne l’indique l’hypothèse du progrès en retraduction, selon laquelle un texte est retraduit pour être corrigé ou amélioré. Notre travail montre qu’en associant à l’étude des traductions celle de leur paratexte, de leur péritexte et des sujets (traducteurs et éditeurs) qui les produisent, et ce afin de resituer chaque retraduction dans son contexte historique propre, on parvient à faire entrer ces retraductions dans un dialogue interculturel et « transhistoriciste » (Nouss, 2007).
Resumo:
Context and objectives. While 11% of all drivers are aged between 16 and 24, they represent 20% of all fatally injured drivers on the road network of the Province of Quebec. In collaboration with the Sûreté du Québec (SQ), this study seeks to: (1) offer a detailed description of the process (script) leading to fatal collisions involving young drivers; and (2) to recommend prevention measures. Methodology. The script perspective was used to relate the process leading to a fatal collision. The script perspective accounts for all steps that lead to the collision by focusing on: (1) all parties (the driver, friends, parents) and their actions; (2) contexts; and (3) environments. Data were collected from collision and investigation files (n=179). Descriptive and comparative analyses were then conducted to construct the script(s). Results. Results show that fatal collision scripts for 16-29 are different from scripts involving drivers of other age categories (30-59 year-old and 60 year-old and over). The typical script involves a young driver using his car to take part in leisure or festive activities. The latest often occur in a private residence, a bar or a restaurant. On site, young drivers frequently consume psychoactive substances (between 21 and 63.5% of them according to the scene of the script) and are accompanied by friends (between 18.4 and 73.9% according to the scene of the script). Friends often encourage drivers to have alcohol and/or drugs, and to adopt reckless behaviours (speeding and drinking-and-driving are respectively involved in 29.9 and 28.6% of fatal collisions). Conclusion and implications for prevention. Results suggest that fatal collisions involving young drivers could be avoided by encouraging prevention measures aimed at: (1) separating drinking and driving; (2) limiting access to alcohol and peer pressure; (3) raising awareness among potential guardians (e.g. responsible waiters, friends); and (4) increasing arrest risk.
Resumo:
Ce mémoire vise à comprendre l’expérience de vie des jeunes Québécoises de 2e génération portant le voile islamique, qui ont vécu le débat sur la charte de la laïcité au Québec en 2012. Un des articles de ce projet de loi visait à interdire le port des signes religieux «ostentatoires» par les employés de la fonction publique. Une vague de protestation a animé les membres des minorités religieuses visées et une apparition, quoique marginale, des Québécois de 2e génération a commencé à émerger. À travers le concept de lutte pour la reconnaissance tel que théorisé par Honneth et celui de stigmate amené par Goffman et élaboré par Göle, j’ai tenté de comprendre l’expérience de lutte pour la reconnaissance entamée par des Québécoises porteuses d’un signe religieux stigmatisé. Le concept d’hybridité m’a permis également de comprendre la richesse identitaire de ces jeunes qui se manifeste notamment dans l’articulation de leurs revendications. J’ai ainsi mené 13 entrevues semi dirigées sur le mode du récit de vie avec des jeunes femmes âgées entre 19 et 27 ans, nées au Québec et portant le voile islamique.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
La sclérose latérale amyothrophique (SLA) est une maladie neurodégénérative charactérisée par la perte des neurones moteurs menant à la paralysie et à la mort. Environ 20% des cas familiaux de la SLA sont causés par des mutations de la superoxyde dismutase 1 (SOD1), conduisant vers un mauvais repliement de la protéine SOD1, ce qui a comme conséquence un gain de fonction toxique. Plusieurs anticorps spécifiques pour la forme mal repliée de la protéine ont été générés et utilisés comme agent thérapeutique dans des modèles précliniques. Comment le mauvais repliement de SOD1 provoque la perte sélective des neurones moteurs demeure non résolu. La morphologie, le bilan énergétique et le transport mitochondrial sont tous documentés dans les modèles de la SLA basés sur SOD1, la détérioration des mitochondries joue un rôle clé dans la dégénération des neurones moteurs. De plus, la protéine SOD1 mal repliée s’associe sélectivement sur la surface des mitochondries de la moelle épinière chez les modèles de rongeurs de la SLA. Notre hypothèse est que l’accumulation de la protéine SOD1 mal repliée sur les mitochondries pourrait nuire aux fonctions mitochondriales. À cette fin, nous avons développé un nouvel essai par cytométrie de flux afin d’isoler les mitochondries immunomarquées avec des anticorps spécifiques à la forme malrepliée de SOD1 tout en évaluant des aspects de la fonction mitochondriale. Cette méthode permettra de comparer les mitochondries portant la protéine SOD1 mal repliée à celles qui ne la portent pas. Nous avons utilisé un anticorps à conformation spécifique de SOD1, B8H10, pour démontrer que la protéine mal repliée SOD1 s’associe avec les mitochondries de la moelle épinière des rat SOD1G93A d’une manière dépendante du temps. Les mitochondries avec la protéine mal repliée SOD1 B8H10 associée à leur surface (B8H10+) ont un volume et une production excessive de superoxyde significativement plus grand, mais possèdent un potentiel transmembranaire comparable aux mitochondries B8H10-. En outre, la présence de la protéine mal repliée SOD1 reconnue par B8H10 coïncide avec des niveaux plus élevés de la forme pro-apoptotique de Bcl-2. L’immunofluorescence de sections de moelle épinière du niveau lombaire avec l’anticorps spécifique à la conformation B8H10 et AMF7-63, un autre anticorps conformationnel spécifique de SOD1, démontre des motifs de localisations distincts. B8H10 a été trouvé principalement dans les neurones moteurs et dans plusieurs points lacrymaux dans tout le neuropile. Inversement, AMF7-63 a marqué les neurones moteurs ainsi qu’un réseau fibrillaire distinctif concentré dans la corne antérieure. Au niveau subcellulaire, SOD1 possèdant la conformation reconnu par AMF7-63 est aussi localisée sur la surface des mitochondries de la moelle épinière d’une manière dépendante du temps. Les mitochondries AMF7-63+ ont une augmentation du volume comparé aux mitochondries B8H10+ et à la sous-population non marquée. Cependant, elles produisent une quantité similaire de superoxyde. Ensemble, ces données suggèrent qu’il y a plusieurs types de protéines SOD1 mal repliées qui convergent vers les mitochondries et causent des dommages. De plus, différentes conformations de SOD1 apportent une toxicité variable vers les mitochondries. Les protéines SOD1 mal repliées réagissant à B8H10 et AMF7-63 sont présentes en agrégats dans les fractions mitochondriales, nous ne pouvons donc pas prendre en compte leurs différents effets sur le volume mitochondrial. Les anticorps conformationnels sont des outils précieux pour identifier et caractériser le continuum du mauvais repliement de SOD1 en ce qui concerne les caractéristiques biochimiques et la toxicité. Les informations présentes dans cette thèse seront utilisées pour déterminer le potentiel thérapeutique de ces anticorps.
Resumo:
Dans une société mondialisée, où les relations sont intégrées à une vitesse différente avec l'utilisation des technologies de l'information et des communications, l'accès à la justice gagne de nouveaux concepts, mais elle est encore confrontée à de vieux obstacles. La crise mondiale de l'accès à la justice dans le système judiciaire provoque des débats concernant l'égalité en vertu de la loi, la capacité des individus, la connaissance des droits, l'aide juridique, les coûts et les délais. Les deux derniers ont été les facteurs les plus importants du mécontentement des individus avec le système judiciaire. La présente étude a pour objet d'analyser l'incidence de l'utilisation de la technologie dans l’appareil judiciaire, avec l'accent sur la réalité brésilienne, la voie législative et des expériences antérieures dans le développement de logiciels de cyberjustice. La mise en œuvre de ces instruments innovants exige des investissements et de la planification, avec une attention particulière sur l'incidence qu'ils peuvent avoir sur les routines traditionnelles des tribunaux. De nouveaux défis sont sur la voie de ce processus de transformation et doivent être traités avec professionnalisme afin d'éviter l'échec de projets de qualité. En outre, si la technologie peut faire partie des différents aspects de notre quotidien et l'utilisation de modes alternatifs de résolution des conflits en ligne sont considérés comme un succès, pourquoi serait-il difficile de faire ce changement dans la prestation de la justice par le système judiciaire? Des solutions technologiques adoptées dans d'autres pays ne sont pas facilement transférables à un environnement culturel différent, mais il y a toujours la possibilité d'apprendre des expériences des autres et d’éviter de mauvaises voies qui pourraient compromettre la définition globale de l'accès à la justice.
Resumo:
Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.
Resumo:
L'auto-assemblage des copolymères à bloc (CPBs) attire beaucoup d'intérêt grâce à leur capacité de générer spontanément des matériaux ordonnés avec des propriétés uniques. Les techniques Langmuir-Blodgett (LB) et Langmuir-Schaefer (LS) sont couramment utilisées pour produire des monocouches ou des films ultraminces à l'interface air/eau suivi de transfert aux substrats solides. Les films LB/LS de CPBs amphiphiles s'auto-assemblent dans des morphologies variables dépendamment de la composition du CPB ainsi que d'autres facteurs. Dans notre travail, nous avons étudié les films LB/LS de polystyrène-b-poly(4-vinyl pyridine) (PS-P4VP) et leurs complexes supramoléculaires avec le naphtol (NOH), l'acide naphtoïque (NCOOH) et le 3-n-pentadécylphenol (PDP). La première partie de ce mémoire est consacré à l'investigation du PS-P4VP complexé avec le NOH et le NCOOH, en comparaison avec le PS-P4VP seul. Il a été démontré qu'un plateau dans l'isotherme de Langmuir, indicatif d'une transition de premier ordre, est absent à des concentrations élevées des solutions d'étalement des complexes. Cela a été corrélé avec l'absence de morphologie en nodules avec un ordre 2D hexagonal à basse pression de surface. L'ordre au-delà de la pression de cette transition, lorsque présente, change à un ordre 2D carré pour tout les systèmes. La deuxième partie du la mémoire considère à nouveau le système PS-P4VP/ PDP, pour lequel on a démontré antérieurement que la transition dans l'isotherme correspond a une transition 2D d'un ordre hexagonal à un ordre carré. Cela est confirmé par microscopie à force atomique, et, ensuite, on a procédé à une étude par ATR-IR des films LB pour mieux comprendre les changements au niveau moléculaire qui accompagnent cette transition. Il a été constaté que, contrairement à une étude antérieure dans la littérature sur un autre système, il n'y a aucun changement dans l'orientation des chaînes alkyles. Au lieu de cela, on a découvert que, aux pressions au-delà de celle de la transition, le groupe pyridine, qui est orienté à basse pression, devient isotrope et qu'il y a une augmentation des liaisons hydrogènes phénol-pyridine. Ces observations sont rationalisées par un collapse partiel à la pression de transition de la monocouche P4VP, qui à basse pression est ordonné au niveau moléculaire. Cette étude a mené à une meilleure compréhension des mécanismes moléculaires qui se produisent à l'interface air/eau, ce qui fournit une meilleure base pour la poursuite des applications possibles des films LB/LS dans les domaines de nanotechnologie.
Resumo:
Éditorial du 24 septembre 2014
Resumo:
Dans ce travail, nous étendons le nombre de conditions physiques actuellement con- nues du trou d’échange exact avec la dérivation de l’expansion de quatrième ordre du trou d’échange sphérique moyenne exacte. Nous comparons les expansions de deux- ième et de quatrième ordre avec le trou d’échange exact pour des systèmes atomiques et moléculaires. Nous avons constaté que, en général, l’expansion du quatrième ordre reproduit plus fidèlement le trou d’échange exact pour les petites valeurs de la distance interélectronique. Nous démontrons que les ensembles de base de type gaussiennes ont une influence significative sur les termes de cette nouvelle condition, en étudiant com- ment les oscillations causées par ces ensembles de bases affectent son premier terme. Aussi, nous proposons quatre modèles de trous d’échange analytiques auxquels nous imposons toutes les conditions actuellement connues du trou d’échange exact et la nou- velle présentée dans ce travail. Nous évaluons la performance des modèles en calculant des énergies d’échange et ses contributions à des énergies d’atomisation. On constate que les oscillations causeés par les bases de type gaussiennes peuvent compromettre la précision et la solution des modèles.