582 resultados para reconnaissance de tâche
Resumo:
L’infection par le Virus Respiratoire Syncytial cause des affections pulmonaires aiguës en pédiatrie caractérisée par une réponse inflammatoire excessive médiée par la production de cytokines par les cellules épithéliales des voies aériennes. Les gènes codant pour ces cytokines sont régulés par le facteur de transcription NF-κB (p50/p65) dont l’activation est classiquement induite par la phosphorylation de son inhibiteur IκBα, ce qui permet l’accumulation de l’hétérodimère au noyau. Par contre, nous avons récemment identifié la phosphorylation en sérine 536 de la sous-unité p65 comme une autre étape essentielle à son activation lors de l’infection des AEC par RSV. Le travail présenté dans ce mémoire a permis de démontrer que l’inhibition de l’expression de RIG-I, de Cardif ou de TRAF6, 3 protéines impliquées dans la reconnaissance cellulaire des virus, conduit à l’inhibition de cette phosphorylation en réponse à RSV. Nous avons également établi à l’aide d’inhibiteurs pharmacologiques et d’ARNi que, parmi les diverses kinases connues pour phosphoryler p65 en réponse à divers stimulus, IKKα/β sont essentielles à cette phosphorylation lors d’une stimulation par RSV. Puisque TRAF6 est bien connu dans la littérature pour activer le complexe IKK, nous proposons que TRAF6, après reconnaissance de l’ARN viral de RSV par RIG-I, active le complexe IKK qui induit la phosphorylation de la sousunité p65 de NF-κB, permettant l’expression de gènes cibles. D’autre part, nous avions précédemment démontré que Nox2, un isoforme de NADPH oxydase, contrôle l’activation de NF-κB en régulant les phosphorylations de IκBα et p65. Nous montrons ici que l’inhibition de Nox2 réduit fortement l’activité du complexe kinase IKK. De plus, la présence au niveau basal de Nox2 est critique pour le niveau d’ARN messager de Cardif. Nous proposons donc que la régulation de la phosphorylation de p65 en ser536 par Nox2 soit via son effet sur Cardif en permettant la fonctionnalité de la voie RIG-I.
Resumo:
La réflexion sur l’intégration au travail des nouvelles enseignantes touche de plus en plus la communauté des chercheurs en éducation. Avec la valorisation de la pratique réflexive, l’enseignante se voit plus que par le passé autorisé à exercer une grande liberté d’action dans son travail, ainsi qu’une grande autonomie en ce qui à trait à l’exécution de sa tâche. Cette liberté peut être lourde à porter, surtout lorsqu’on entre dans le métier. Aussi, pour soutenir cette liberté et la diriger, la référence aux valeurs demeure fondamentale. Dans le présent mémoire, nous tentons d’en savoir plus sur les valeurs qui animent ces nouvelles venues, et comment celles-ci les aident à vivre leur intégration et à concevoir leur place dans le métier. La cueillette des données effectuée à partir de leurs réflexions, souvent profondes, sur les valeurs personnelles, les valeurs au travail et le rapport au métier, permet une analyse du discours basée sur le ressenti et l’expérience. C’est en puisant dans les thèses de la modernité et de la postmodernité, toutes deux parlantes quant à l’époque actuelle, que nous tentons de mieux cerner et induire les valeurs propres aux enseignantes ayant participé à notre étude phénoménologique de type exploratoire. Grâce à l’analyse de contenu, nous sommes à même de constater que malgré une ligne de partage présente entre certaines valeurs dites modernes et postmodernes, il n’en demeure pas moins qu’une tendance se dessine : nos nouvelles enseignantes désirent être fidèles d’abord et avant tout à elles-mêmes, même si cela implique l’abandon du métier qu’elles envisagent toutes comme une possibilité, sans exception. Cela en dit long sur leurs priorités et leurs valeurs au travail. Il est clair qu’elles travaillent de manière à se sentir authentiques, toujours avec le souci de savoir s’adapter aux nouvelles situations. Cependant, même si certaines d’entre elles trouvent plus ardu de s’adapter à une demande en matière de flexibilité professionnelle à la hausse, il n’en demeure pas moins que la flexibilité au travail est un élément désormais bien intégré à l’habitus professionnel des enseignantes pratiquant depuis dix ans et moins. Si postmodernes que ça nos nouvelles enseignantes? Oui.
Resumo:
Les effets positifs des appellations d’origine pour le développement territorial dans certaines régions européennes ont attiré l’attention de producteurs et de promoteurs du développement dans les pays du Sud. Ainsi, les producteurs de fromage Cotija au Mexique ont sollicité une appellation d’origine en 2004. Elle leur a été refusée, l’administration estimant que la dénomination Cotija constituait un terme générique. Au-delà du débat sur le caractère générique ou non d’une appellation, ce cas est très instructif sur les limites du cadre légal et institutionnel mexicain, plus de 30 ans après que la Tequila soit devenue la première appellation reconnue au Mexique. L’absence d’un objectif politique clair et explicite pour les appellations d’origine se traduit dans l’incertitude et la faiblesse des institutions mises en place. Ce contexte n’est pas favorable pour la reconnaissance d’appellations d’origine et remet donc en cause leur utilisation comme outil de développement territorial.
Resumo:
Fragile States is a way of naming this particular category of states that have weak performance, insufficient service delivery, weak administrative and government power, and lack of legal rules. Little consideration is usually made to the fact that their own societies may also be fragile and easily jeopardised by inappropriate economic measures or external events. Poverty traps and social exclusion, unjust inequalities with lack of equity, feelings of insecurity and vulnerability, usually undermine the social fabric. Moreover, the people bear their own internal fragilities, which are based on the lack of capabilities and recognition, and interfere in the relationships between the groups that constitute the society. Therefore, dealing with the issue of fragility requires to consider various decision levels, from the personal one to the State level. Such an approach could allow fragile states to conceive preventive policies that would avoid the surge of a political crisis resulting from the combination of social conflict and individual failure.
Resumo:
Des études récentes ont démontré l’importance du travail dans la construction de l’identité. Pour les personnes atteintes d’un trouble psychiatrique qui se retrouvent la plupart du temps exclues du marché du travail, l’absence d’un emploi suppose une construction identitaire problématique. Dans cette perspective, ce mémoire vise à mieux comprendre ce processus. Le cadre conceptuel utilisé dans cette recherche se base sur les principes de l’approche théorique de Dubar. Il permet d’étudier la reconstruction identitaire à partir de l’interaction entre l’identité revendiquée par les personnes atteintes d’une maladie mentale et l’identité attribuée par des personnes de leur entourage. En conséquence, cette recherche analyse le discours de 28 personnes atteintes d’un trouble mental ainsi que de celui de 6 intervenants sociaux. Nos résultats démontrent la reconstruction de formes identitaires problématiques. La première forme touche la majorité des personnes atteintes de troubles mentaux. Ces dernières aspirent à réintégrer le marché du travail et vivre une vie normale. Toutefois, les intervenants sociaux les perçoivent comme des malades qui ne peuvent fonctionner normalement. La deuxième forme identitaire est reconstruite dans un rapport de concordance entre les perceptions des personnes atteintes de troubles mentaux et celles des intervenants. Les répondants se perçoivent comme étant des malades. Cette identité est validée par les intervenants. La dernière forme identitaire s’inscrit dans un rapport conflictuel qui touche seulement une personne. Cette dernière se perçoit comme une personne malade, mais cette identité est refusée par l’intervenant qui la perçoit comme une personne fonctionnelle et apte à retourner sur le marché du travail.
Resumo:
Les détecteurs ATLAS-MPX sont des détecteurs Medipix2-USB recouverts de convertisseurs de fluorure de lithium et de polyéthylène pour augmenter l’efficacité de détection des neutrons lents et des neutrons rapides respectivement. Un réseau de quinze détecteurs ATLAS-MPX a été mis en opération dans le détecteur ATLAS au LHC du CERN. Deux détecteurs ATLAS-MPX de référence ont été exposés à des sources de neutrons rapides 252 Cf et 241 AmBe ainsi qu’aux neutrons rapides produits par la réaction 7Li(p, xn) pour l’étude de la réponse du détecteur à ces neutrons. Les neutrons rapides sont principalement détectés à partir des protons de recul des collisions élastiques entre les neutrons et l’hydrogène dans le polyéthylène. Des réactions nucléaires entre les neutrons et le silicium produisent des particules-α. Une étude de l’efficacité de reconnaissance des traces des protons et des particules-α dans le détecteur Medipix2-USB a été faite en fonction de l’énergie cinétique incidente et de l’angle d’incidence. L’efficacité de détection des neutrons rapides a été évaluée à deux seuils d’énergie (8 keV et 230 keV) dans les détecteurs ATLAS-MPX. L’efficacité de détection des neutrons rapides dans la région du détecteur couverte avec le polyéthylène augmente en fonction de l’énergie des neutrons : (0.0346 ± 0.0004) %, (0.0862 ± 0.0018) % et (0.1044 ± 0.0026) % pour des neutrons rapides de 2.13 MeV, 4.08 MeV et 27 MeV respectivement. L’étude pour déterminer l’énergie des neutrons permet donc d’estimer le flux des neutrons quand le détecteur ATLAS-MPX est dans un champ de radiation inconnu comme c’est le cas dans le détecteur ATLAS au LHC.
Resumo:
La réadaptation pulmonaire est une intervention dont l’efficacité est largement reconnue. Cette efficacité a été établie grâce à l’utilisation d’instruments de mesure d’impact global. Les patients bénéficiant des programmes de réadaptation pulmonaire possèdent des caractéristiques variées et souffrent généralement de maladie pulmonaire obstructive chronique à différents degrés. En fonction de leurs différents besoins, les patients répondent de façon variable aux composantes d’un programme de réadaptation pulmonaire. Il est recommandé d’individualiser les programmes en fonction des besoins des patients afin d’en optimiser les effets. À cette fin, l’évaluation des besoins de réadaptation des patients est nécessaire. Comme il n’existe actuellement aucun instrument standardisé pour procéder à cette évaluation, nous avons entrepris d’en développer un à l’aide de méthodes qualitatives et quantitatives de recherche. Un modèle conceptuel d’évaluation des besoins de réadaptation des patients a été élaboré suite aux résultats tirés de groupes de discussion, de la consultation de dossiers médicaux et d’une recension des écrits. À partir de ce modèle, des items devant être sélectionnés de façon individualisée parmi cinq domaines (reconnaissance des besoins, connaissance, motivation, attentes et buts) ont été pré-testés. Les tendances générales concernant la validité des items contenus dans le prototype d’instrument ont été vérifiées lors d’une étude pilote auprès de 50 répondants en réadaptation. Les pistes d’investigation dégagées dans ce mémoire serviront aux études de validation plus approfondies dont devrait faire l’objet ce prototype d’instrument dans le futur.
Resumo:
L’armée de Gaule sous le Bas-Empire fut une des trois armées principales de l’Empire romain. Son évolution de la fin du IIIe siècle jusqu’au début du Ve fut marquée par une réorganisation graduelle dans le commandement, ainsi que dans l’organisation des troupes et des fortifications. Ces réformes ont fait l’objet d’études qui ont dressé un schéma de déploiement des troupes resté longtemps populaire. À ce schéma s’est ensuite ajoutée l’idée de la stratégie à grande échelle qui y aurait été associée. Ce mémoire tâche de dresser une synthèse des derniers travaux sur l’armée romaine tardive en Gaule. L’approche choisie repose sur une réévaluation des sources sans l’influence d’un schéma défensif préconçu, ainsi que sur une critique de certaines idées reçues concernant l’armée romaine du IVe siècle.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
Le pouvoir de détenir une personne à des fins d'enquête n'est pas une technique d'investigation nouvelle et tire son origine du droit anglais. Mais cette méthode d'enquête, qui consiste à restreindre temporairement la liberté de mouvement d'une personne que l'on soupçonne pour des motifs raisonnables d'être impliquée dans une activité criminelle, ne fut reconnue officiellement au Canada qu'en juillet 2004 suite au jugement rendu par la Cour suprême dans l'affaire R. c. Mann. Au moment d'écrire ces lignes, cette stratégie d'enquête policière ne fait toujours pas l'objet d'une réglementation spécifique au Code criminel. L'approbation de cette technique d'enquête, en l'absence de toute forme de législation, ne s'est pas faite sans critiques de la part des auteurs et des commentateurs judiciaires qui y voient une intrusion dans un champ de compétences normalement réservé au Parlement. L'arrêt Mann laisse également en suspens une question cruciale qui se rapporte directement aux droits constitutionnels des citoyens faisant l'objet d'une détention semblable: il s'agit du droit d'avoir recours sans délai à l'assistance d'un avocat. Le présent travail se veut donc une étude approfondie du concept de la détention à des fins d'enquête en droit criminel canadien et de son impact sur les droits constitutionnels dont bénéficient les citoyens de notre pays. Pour accomplir cette tâche, l'auteur propose une analyse de la question en trois chapitres distincts. Dans le premier chapitre, l'auteur se penche sur le rôle et les fonctions dévolus aux agents de la paix qui exécutent leur mission à l'intérieur d'une société libre et démocratique comme celle qui prévaut au Canada. Cette étude permettra au lecteur de mieux connaître les principaux acteurs qui assurent le maintien de l'ordre sur le territoire québécois, les crimes qu'ils sont le plus souvent appelés à combattre ainsi que les méthodes d'enquête qu'ils emploient pour les réprimer. Le deuxième chapitre est entièrement dédié au concept de la détention à des fins d'enquête en droit criminel canadien. En plus de l'arrêt R. c. Mann qui fera l'objet d'une étude détaillée, plusieurs autres sujets en lien avec cette notion seront abordés. Des thèmes tels que la notion de «détention» au sens des articles 9 et 10b) de la Charte canadienne des droits et libertés, la différence entre la détention à des fins d'enquête et l'arrestation, les motifs pouvant légalement justifier une intervention policière de même que les limites et l'entendue de la détention d'une personne pour fins d'enquête, seront aussi analysés. Au troisième chapitre, l'auteur se consacre à la question du droit d'avoir recours sans délai à l'assistance d'un avocat (et d'être informé de ce droit) ainsi que du droit de garder le silence dans des circonstances permettant aux agents de la paix de détenir une personne à des fins d'enquête. Faisant l'analogie avec d'autres jugements rendus par nos tribunaux, l'auteur suggère quelques pistes de solutions susceptibles de combler les lacunes qui auront été préalablement identifiées dans les arrêts Mann et Clayton.
Resumo:
Bien que les règles de droits et des directives administratives dictent leur conduite, les policiers jouissent d’une latitude considérable dans la manière d’appliquer la loi et de dispenser des services. Puisque l’exercice efficient de toute forme d’autorité nécessite la reconnaissance de sa légitimité (Tyler, 2004), plus l’application de leurs pouvoirs discrétionnaires est jugée arbitraire ou excessive, plus les citoyens risquent d’utiliser des mécanismes normaux d’opposition ou de riposte. Dans cette optique, la présente étude cherche à départager les causes des 15 023 épisodes de voie de fait, menace, harcèlement, entrave et intimidation, qualifiés de défiance, dont les policiers du Service de police de la ville de Montréal (SPVM) ont été la cible entre 1998-2008 selon leur registre des événements (Module d’information policière – MIP). Elle présume qu’à interactions constantes entre la police et les citoyens, les comportements de défiance policière seront fonction du niveau de désordre du quartier et des caractéristiques des personnes impliquées. Plus les policiers interceptent de jeunes, de minorités ethniques et d’individus associés aux gangs de rue, plus ils risquent d’être défiés. Elle suppose également que la probabilité qu’une intervention soit défiée dépend de l’excessivité des activités policières menées dans le quartier. Plus un quartier est sur-contrôlé par rapport à son volume de crimes (overpoliced), plus le climat local est tendu, plus les policiers sont perçus comme étant illégitimes et plus ils risquent d’être défiés lorsqu’ils procèdent à une intervention. Enfin, les comportements de défiance sont peut-être simplement fonction du niveau d’interactions entre les policiers et les citoyens, à conditions sociales et criminogènes des quartiers tenues constantes. Une série d’analyses de corrélation tend à confirmer que les comportements de défiance varient en fonction de l’âge, de l’ethnicité et de l’appartenance à un gang de rue de l’auteur. Par contre, les conditions sociales et criminogènes des quartiers paraissent être des causes antécédentes à la défiance puisqu’elles encouragent un volume plus élevé d’interventions dans les quartiers désorganisés, lequel influe sur le nombre d’incidents de défiance. Contrairement à notre hypothèse, les résultats tendent à démontrer que les policiers risquent davantage d’être défiés dans les quartiers sous-contrôlés (underpoliced). Quant à elles, les analyses multiniveaux suggèrent que le nombre d’incidents de défiance augmente à chaque fois qu’une intervention policière est effectuée, mais que cette augmentation est influencée par les quartiers propices aux activités criminelles des gangs de rue. En ce sens, il est probable que l’approche policière dans les quartiers d’activités « gangs de rue » soit différente, par souci de protection ou par anticipation de problèmes, résultant plus fréquemment en des actes de défiance à l’égard des policiers.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
Les interneurones GABAergiques constituent une population mineure de cellules par rapport aux neurones glutamatergiques dans le néocortex. Cependant ils contrôlent fortement l'excitabilité neuronale, la dynamique des réseaux neuronaux et la plasticité synaptique. L'importance des circuits GABAergiques dans le processus fonctionnel et la plasticité des réseaux corticaux est soulignée par des résultats récents qui montrent que des modifications très précises et fiables des circuits GABAergiques sont associées à divers troubles du développement neurologique et à des défauts dans les fonctions cérébrales. De ce fait, la compréhension des mécanismes cellulaires et moléculaires impliquant le développement des circuits GABAergiques est la première étape vers une meilleure compréhension de la façon dont les anomalies de ces processus peuvent se produire. La molécule d’adhésion cellulaire neurale (NCAM) appartient à la super-famille des immunoglobulines de reconnaissance cellulaire et est impliquée dans des interactions homophiliques et hétérophiliques avec d’autres molécules. Même si plusieurs rôles de NCAM ont été démontrés dans la croissance neuronale, la fasciculation axonale, la formation et la maturation de synapses, de même que dans la plasticité cellulaire de plusieurs systèmes, le rôle de NCAM dans la formation des synapses GABAergiques reste inconnu. Ce projet visait donc à déterminer le rôle précis de NCAM dans le processus de maturation des synapses GABAergiques dans le néocortex, en modulant son expression à différentes étapes du développement. L’approche choisie a été de supprimer NCAM dans des cellules GABAergiques à paniers avant la maturation des synapses (EP12-18), pendant la maturation (EP16-24), ou durant le maintien de celles-ci (EP24-32). Les méthodes utilisées ont été le clonage moléculaire, l’imagerie confocale, la culture de coupes organotypiques et des techniques morphométriques de quantification de l’innervation GABAergique. Nos résultats montrent que l’inactivation de NCAM durant la phase de maturation des synapses périsomatiques (EP16-24) cause une réduction du nombre de synapses GABAergiques périsomatiques et du branchement de ces axones. En revanche, durant la phase de maintien (EP26-32), l’inactivation de NCAM n’a pas affecté ces paramètres des synapses GABAergiques. Or, il existe trois isoformes de NCAM (NCAM120, 140 et 180) qui pourraient jouer des rôles différents dans les divers types cellulaires ou à des stades développementaux différents. Nos données montrent que NCAM120 et 140 sont nécessaires à la maturation des synapses périsomatiques GABAergiques. Cependant, NCAM180, qui est l’isoforme la plus étudiée et caractérisée, ne semble pas être impliquée dans ce processus. De plus, l’inactivation de NCAM n’a pas affecté la densité des épines dendritiques ou leur longueur. Elle est donc spécifique aux synapses périsomatiques GABAeriques. Finalement, nos résultats suggèrent que le domaine conservé C-terminal KENESKA est essentiel à la maturation des synapses périsomatiques GABAergiques. Des expériences futures nous aiderons à mieux comprendre la mécanistique et les différentes voies de signalisation impliquées.
Resumo:
Il est généralement admis que la vision joue un rôle prépondérant dans la formation des représentations spatiales. Qu’advient-il alors lorsqu’un individu est atteint de cécité? Dans le premier volet de cette thèse, les habiletés spatiales des personnes aveugles ont été examinées à l’aide de différentes tâches et comparées à celles de personnes voyantes effectuant les mêmes tâches avec les yeux bandés. Dans une première étude, les capacités de rotation mentale ont été évaluées à l’aide d’une épreuve d’orientation topographique tactile. Les résultats obtenus montrent que les personnes aveugles parviennent généralement à développer des capacités de rotation mentale similaires à celles de personnes voyantes et ce, malgré l’absence d’information de nature visuelle. Dans une seconde étude, nous avons utilisé différentes tâches spatiales nécessitant l’utilisation de la locomotion. Les résultats obtenus montrent que les personnes aveugles font preuve d’habiletés supérieures à celles de voyants lorsqu’elles doivent apprendre de nouveaux trajets dans un labyrinthe. Elles parviennent également à mieux reconnaître une maquette représentant un environnement exploré précédemment. Ainsi, l’absence de vision ne semble pas entraver de manière significative la formation de concepts spatiaux. Le second volet de cette thèse s’inscrit dans la lignée des études sur la plasticité cérébrale chez les personnes aveugles. Dans le cas présent, nous nous sommes intéressés à l’hippocampe, une structure profonde du lobe temporal dont le rôle au plan spatial a été établi par de nombreuses études animales ainsi que par des études cliniques chez l’humain incluant l’imagerie cérébrale. L’hippocampe joue un rôle particulièrement important dans la navigation spatiale. De plus, des changements structuraux de l’hippocampe ont été documentés en relation avec l’expérience des individus. Par exemple, l’étude de Maguire et al. (2000) a mis en évidence de telles modifications structurelles de l’hippocampe chez des chauffeurs de taxi. À l’instar de ces derniers, les personnes aveugles doivent emmagasiner de nombreuses informations au sujet de leur environnement puisqu’elles ne peuvent bénéficier de la vision pour mettre à jour les informations sur celui-ci, sur leur position dans l’espace et sur la position des objets se trouvant hors de leur portée. Nous avons montré, pour la première fois, une augmentation du volume des hippocampes chez les personnes aveugles en comparaison avec les personnes voyantes. De plus, cette augmentation de volume était positivement corrélée à la performance à une tâche d’apprentissage de trajets. Les résultats présentés dans cette thèse permettent d’appuyer les études antérieures qui soutiennent que les personnes aveugles parviennent à compenser leur déficit et à développer des habiletés spatiales comparables, voire supérieures, à celles de personnes voyantes. Ils permettent également d’apporter un éclairage nouveau sur le concept de plasticité cérébrale présent chez cette population en montrant pour la première fois un lien entre le volume de l’hippocampe et les habiletés spatiales chez les personnes aveugles.
Resumo:
L'obligation de sécurité informationnelle - c'est-à-dire la tâche qui incombe aux entreprises d'assurer l'intégrité, la confidentialité et la disponibilité de l'information découle, tant en droit québécois que dans une majorité de juridictions occidentales, d'une série de dispositions législatives imposant non pas l'adoption de comportements ou l'utilisation de technologies ou de procédés identifiables, mais bien l'implantation de mesures de sécurité «raisonnables », «adéquates », ou « suffisantes ». Or, dans un domaine aussi embryonnaire et complexe que celui de la sécurité informationnelle, domaine dans lequel les solutions disponibles sont multiples et où la jurisprudence est éparse, comment une entreprise peut-elle jauger avec justesse l'étendue de son obligation? Bref, comment établir ce que ferait une entreprise raisonnablement prudente et diligente dans un domaine où il n'existe actuellement aucune balise législative, jurisprudentielle ou même coutumière permettant de fixer avec justesse le niveau de diligence imposé par le législateur? L'absence de sécurité juridique offerte par une telle situation est patente et nécessite une reconfiguration du cadre opératoire de l'obligation de sécurité informationnelle afin d'en identifier les composantes et les objectifs. Cet exercice passera par la redéfinition de l'obligation de sécurité informationnelle comme obligation de réduire les risques qui guettent l'information à un niveau socialement acceptable. En effet, la sécurité pouvant être définie comme étant la gestion du risque, c'est donc le risque qui réside au cœur de cette obligation. Or, en analysant les risques qui guettent un système, soit en analysant les menaces qui visent à exploiter ses vulnérabilités, il est possible d'établir quelles contre-mesures s'avèrent utiles et les coûts associés à leur mise en œuvre. Par la suite, il devient envisageable, en recourant à la définition économique de la négligence et en prenant compte des probabilités de brèches de sécurité et des dommages escomptés, d'établir les sommes optimales à investir dans l'achat, l'entretien et la mise à jour de ces contre-mesures. Une telle analyse permet ainsi de quantifier avec un certain degré de précision l'étendue de l'obligation de sécurité informationnelle en offrant aux entreprises un outil s'inspirant de données matérielles auxquelles elles ont librement accès et s'intégrant aisément dans le contexte juridique contemporain.