804 resultados para TRASTORNOS DE LA VISION
Resumo:
Au début des années 1920, la ville de Montréal se retrouve dans une situation assez unique. À l’époque, les États-Unis et toutes les provinces canadiennes à l’exception du Québec ont adopté la prohibition de la vente d’alcool. Mais même au Québec, environ la moitié de la population de la province est alors touchée par des prohibitions locales (votées au niveau municipal), des prohibitions qui ont largement perduré tout au long de la période à l’étude. Durant cette ère de prohibition de l’alcool nord-américaine, Montréal est la plus grande ville, et une des seules sur le continent non régie par une loi sur la prohibition. C’est aussi celle qui dispose des lois les plus libérales envers l’alcool des deux côtés du 49ème parallèle grâce à la création de la Commission des Liqueurs de Québec (CLQ), le premier système de contrôle gouvernemental de l’alcool en Amérique du Nord. C’est dans ce contexte que Montréal devient une rare oasis dans un continent assoiffé et le plus grand cobaye du modèle de contrôle gouvernemental de l’alcool. Ce mémoire examine les impacts de cette conjoncture sur le développement de cette ville, de son industrie touristique, de sa vie nocturne et de sa réputation. En premier lieu, le mémoire présente une mise en contexte de la situation aux États-Unis, au Canada et au Québec afin de faire ressortir le caractère unique de Montréal pendant cette période. En deuxième lieu, l’essor du tourisme dit « de liqueur » et de la vie nocturne montréalaise, à la fois légale et illicite, est exploré. En dernier lieu, le mémoire met au jour l’impact que cette conjoncture a eu sur la construction de la réputation de la ville à travers l’examen des écrits des anti- et pro-prohibitionnistes qui ont chacun propagé des visions idéalisées et démonisées de cette ville « bien arrosée », ainsi que des documents associés à l’essor du tourisme, tels que les chansons, les guides touristiques et les récits de voyage, qui, pour leur part, ont présenté un image plus romancée de la métropole et associée à un refuge festif de la prohibition. Malgré leurs différences, ces trois visions de Montréal l’ont néanmoins associée à la liberté, que ce soit une liberté ordonnée, dangereuse ou bien émancipatrice. Ainsi, à partir de l’expérience de la prohibition et du tourisme de liqueur, Montréal devient connue comme une ville « ouverte », dans ses acceptions à la fois positives et négatives.
Resumo:
Cette étude a pour but de présenter le dialogue entre les juges de la Cour européenne des droits de l’homme (CEDH) et de la Cour interaméricaine des droits de l’homme (CIADH), deux Cours régionales supranationales, visant toutes deux à garantir le respect des droits fondamentaux. Le dialogue est étudié à travers l’analyse du contentieux portant sur l’intégrité de la personne humaine et sur la protection des droits économiques et sociaux. Ce sujet se rattache au contexte de mondialisation qui vient transformer les relations de pouvoir et révèle l’émancipation des juges dans la régulation transgouvernementale. Le présent mémoire conclut que le dialogue vise à établir une cohérence entre les systèmes afin de faire prévaloir une vision commune des droits de l’homme à travers la constitution d’un espace euro-américain, tel un réseau d’échange informel. Néanmoins, le dialogue est limité par certains facteurs contextuels liés aux réalités contrastées des deux systèmes régionaux ainsi que par la volonté des acteurs étatiques.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Depuis les années quatre-vingt-dix Cuba développe et commercialise des vaccins et méthodes en biotechnologies médicales dont certains sont des premières mondiales. L'île est alors encore considérée comme un pays en voie de développement et est la cible d’un embargo imposé par les États-Unis depuis plus de trente ans. Or les biotechnologies sont une science aussi coûteuse en matériel qu'en ressources humaines très spécialisées et elles sont de ce fait réservées aux pays de la sphère scientifique centrale. Ces réussites suggèrent la mise en place d'un potentiel scientifique et technique réel autant qu'elles peuvent constituer un artéfact dans un secteur moins développé ou moins pérenne qu'il n'y paraît. Quel est le vrai visage des biotechnologies cubaines au milieu des années deux-mille ? C'est à cette question que tente de répondre cette étude. Elle consiste dans un premier temps à retracer les paramètres du développement des institutions de recherche en biotechnologies dans un contexte qui connaît peu de répit depuis l'avènement de la Révolution : indicateurs socio-économiques bas, embargo, planification socialiste, isolement géopolitique, crises économiques mondiales, dissolution du bloc soviétique... Elle se poursuit avec une analyse bibliométrique permettant de donner un visage quantitatif des réalisations cubaines dans le domaine : au-delà des réalisations mises de l'avant, dans quelles revues et dans quels domaines les chercheurs cubains en biotechnologie publient-ils ? Avec quels pays collaborent-ils et par quels pays sont-ils cités ? Quelle est leur place dans le monde ? Nous exploiterons l'ensemble de ces indicateurs et de ces éléments historiques pour conclure, au tournant des années deux-mille, à l'existence d'un potentiel scientifique et technique développé mais d'une science aux ressources maigres constamment tenue de rapporter un certain capital économique aussi bien que politique. En cohérence avec la dialectique socialiste propre à l'île, les sciences cubaines, depuis 1959, ne constituent jamais une fin en soi mais restent un moyen politique et social. En 2006 elles le sont encore. Malgré leurs réalisations elles touchent aux limites de la planification et réclament leur indépendance face au politique afin d'exploiter pleinement leur potentiel, bien réel.
Resumo:
La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.
Resumo:
Cette thèse est une exploration de mon processus compositionnel. En tentant de comprendre comment s’organise ma pensée créatrice, j’ai dégagé trois observations : l’organicisme du processus et des œuvres, la notion de mouvement et la relation récursive entre la matière et le compositeur. Ces thèmes m’ont amené à établir un lien épistémologique entre la composition musicale et l’étude des systèmes complexes. Dans ce cadre systémique, j’ai établi que les informations qui motivent mes prises de décision artistiques ont entre elles des ramifications opérationnelles et structurelles qui évoquent une arborescence rhizomatique plutôt qu’une hiérarchie linéaire. La transdisciplinarité propre à la systémique m’a également permis d’introduire des notions provenant d’autres champs de recherche. S’articulant d’emblée avec mon processus compositionnel, ces notions m’ont procuré une vision holistique de ma démarche artistique. Conséquemment, je considère l’acte de composer comme une interaction entre ma conscience et tout ce qui peut émaner de la matière sonore, les deux s’informant l’une et l’autre dans une boucle récursive que je nomme action⟳perception. L’œuvre ainsi produite n’est pas exclusivement tributaire de ma propre volition puisque, au fil du processus, mes décisions opératoires et artistiques sont en grande partie guidées par les propriétés invariantes et les propriétés morphogéniques inhérentes au matériau sonore. Cette approche dynamique n’est possible que si l’interaction avec le compositeur se fait en temps réel, ce que permet la lutherie numérique. Les résultats de mes recherches m’ont guidé dans la composition d’œuvres choisies, autant acousmatiques, mixtes, vidéomusicales que pluridisciplinaires.
Resumo:
Thrasymaque de Chalcédoine, un sophiste de renom dans l'Athènes du Ve siècle av. J.C. est présenté comme l'interlocuteur principal de Socrate dans le livre I de la République. Il y est surtout question de la justice et des implications qui en découlent, Socrate et Thrasymaque ne s'entendant évidemment pas sur la nature de la justice. Thrasymaque, poussé par le questionnement constant de Socrate, en vient à formuler différentes thèses sur la justice, notamment : «Je soutiens, moi, que le juste n'est rien d'autre que l'intérêt du plus fort» (Rép. 338c) et «la justice et le juste constituent en réalité le bien d'un autre.» (Rép. 343c) Parallèlement, il oppose au philosophe une vision de la justice difficile à accepter, mais aussi difficile à réfuter : celui qui commet l'injustice est plus heureux que celui qui agit en fonction de la justice. Ainsi, pour Thrasymaque, l'injuste est meilleur que le juste et est plus heureux, car l'injustice est plus profitable pour soi-même. Selon cette vision, qu'est-ce donc que la justice, et en quoi n'est-elle pas profitable pour soi-même? L'objectif de ce mémoire sera de faire ressortir positivement la conception de la justice de Thrasymaque, car c'est avec elle qu'entre en conflit la recherche du bonheur. En effet, si la justice est la représentation des intérêts du dirigeant, comme l'avance le sophiste, alors être juste n'est rien d'autre qu'agir en fonction des intérêts d'autrui et non de soi-même. Cependant, dans une Cité où les individus sont sous la gouverne de la loi, il n'est pas si simple d'agir toujours selon ses propres intérêts lorsque ceux-ci sont contraires à la justice. C'est pourquoi il sera également pertinent de s'attarder aux caractéristiques et aux vertus qu'un individu doit posséder, selon Thrasymaque, pour être heureux. Nous essaierons donc de dégager de la pensée de Thrasymaque un modèle de vie à suivre : le κρείττων. En dernière analyse, nous mettrons en relief la position de Thrasymaque avec la critique platonicienne. Pour Socrate, la position voulant que l'injustice soit profitable est difficile, car il lui faudra montrer que c'est en fait la justice qui apporte le bonheur, en tant qu'elle est une vertu de l'âme.
Resumo:
Hieronymus Cock's view of the Capitoline Hill, published in 1562 series on Roman ruins, has long been considered a useful document by historians of art and architecture for the key historical and topographical information it contains on one of Rome's most celebrated sites during the Renaissance. Beyond its documentary nature, which, as will appear, was essentially rhetorical, the view also offers much information as to how a mid sixteenth-century Flemish artist might perceive Rome's illustrious topography and celebrated ancient statuary. In other words, Cock's engraving enables us to put into practice what may be called an "archaeology of the gaze". Through previously unnoticed details, Cock invents a comical - verging on the satirical - vision of the antique sculptures proudly displayed on the famous piazza. Such an ironical reversal of Italian classical dignity is typical of the attitude of some contemporary Flemish artists, such as Pieter Brueghel, who was then close to Cock, and exposes the ambivalent position of some Northern European artists towards the classical tradition and Italian art theory. Finally, the analysis of other engravings of ruins by Hieronymus Cock where two emblematic characters - the draftsman and the 'kakker' (the one who defecates) - appear side by side, sheds light on the origin and possible significance of these comical and subversive details.
Resumo:
La musique aujourd’hui est régulièrement accompagnée d’environnements visuels. Depuis les propositions en provenance du vidéoclip jusqu’aux œuvres installatives en passant par l’art web ou le cinéma, l’audiovisuel occupe une place considérable dans notre monde médiatisé et constitue un foyer important du développement des pratiques musicales. L’alliage entre son et image est souvent rattachée à l’histoire du cinéma mais les prémisses entourant l’audiovisuel remontent en réalité à l’Antiquité. Les correspondances entre sons et couleurs ont pris racine en premier chez les Pythagoriciens et cet intérêt se poursuit encore aujourd’hui. L’avènement de différentes technologies est venu reformuler au fil des siècles cette recherche qui retourne du décloisonnement artistique. L’arrivée de l’électricité permet au XIXe siècle le développement d’une lutherie expérimentale avec entre autres l’orgue à couleur d’Alexander Rimington. Ces instruments audiovisuels donnent naissance plus tard au Lumia, un art de la couleur et du mouvement se voulant proche de la musique et qui ne donne pourtant rien à entendre. Parallèlement à ces nouvelles propositions artistiques, il se développe dès les tout début du XXe siècle au sein des avant-gardes cinématographiques un corpus d’œuvres qui sera ensuite appelé musique visuelle. Les possibilités offertes par le support filmique vient offrir de nouvelles possibilités quant à l’organisation de la couleur et du mouvement. La pratique de cet art hybride est ensuite reformulée par les artistes associés à l’art vidéo avant de connaitre une vaste phase de démocratisation avec l’avènement des ordinateurs domestiques depuis les années 1990. Je retrace le parcours historique de ces pratiques audiovisuelles qui s’inscrivent résolument sur le terrain du musical. Un parcours appuyé essentiellement sur des œuvres et des ouvrages théoriques tout en étant parsemé de réflexions personnelles. Je traite des enjeux théoriques associés à ces propositions artistiques en les différenciant d’un autre format audiovisuel majeur soit le cinéma. Cet exposé permet de préparer le terrain afin de présenter et contextualiser mon travail de création. Je traite de deux œuvres, Trombe (2011) et Lungta (2012), des propositions qui héritent à la fois des musiques visuelles, de l’art interactif et de l’art cinétique.
Resumo:
Toute historiographie se construit sous la forme d’un récit, soutenue par une narration qui, autour d’une intrigue, sélectionne et organise les événements en fonction de leur importance relative à des critères prédéterminés. La période des années 1960, qui est habituellement décrite comme celle de la naissance de la littérature québécoise, est on ne peut plus représentative de cette logique narrative qui sous-tend toute démarche historique. Un événement retenu par cette histoire, la Nuit de la poésie du 27 mars 1970, s’est littéralement élevé au rang de mythe dans l’imaginaire littéraire, mais aussi identitaire des Québécois. Que ce soit à travers les triomphes de Claude Gauvreau et de Michèle Lalonde ou la foule de plusieurs milliers de personnes devant le Gesù qui espérait assister à la soirée, cet événement, mis sur pellicule par Jean-Claude Labrecque et Jean-Pierre Masse, a été conçu par plusieurs comme l’apothéose de « l’âge de la parole ». Une observation minutieuse de ce happening soulève cependant de nombreuses questions concernant la construction de ce rôle dans l’histoire littéraire québécoise. En effet, tant l’étude des conditions d’organisation de la soirée que l’analyse de son mode de transmission révèlent des motivations archivistiques qui laissent transparaître l’objectif de la Nuit à « faire événement », à produire des traces qui participeront à l’inscription historique de la poésie québécoise. Considérant que l’œuvre filmique de Labrecque et de Masse constitue le seul véritable document témoignant de cet événement et que celui-ci a fait l’objet d’un montage ne présentant qu’une facette de la soirée, les enjeux de représentation et de mise en récit inhérents au cinéma documentaire poussent à questionner le portrait désiré de la poésie de l’époque que l’on voulait créer à travers le long-métrage. Véritable plateau de tournage, le spectacle du 27 mars 1970 appelle à être analysé dans les termes d’une conscience historique qui pousse les acteurs du milieu littéraire de l’époque à ériger les monuments qui seront à la base du canon et de l’institution littéraires québécois. L’étude, mobilisant les ressources de l’analyse de texte, de la sociologie de la littérature, de la théorie historiographique et de la théorie du cinéma, portera principalement sur le documentaire La Nuit de la poésie 27 mars 1970, considéré comme véritable recueil de textes, mais aussi de façon tout à fait originale sur les archives inédites rejetées du montage final des réalisateurs de l’ONF. Au terme de ce travail, j’approfondirai la réflexion sur le rôle historique d’un événement emblématique de la littérature québécoise en explicitant la construction historique autour de celui-ci. Il s’agira non seulement de relativiser l’événement en tant que tel, mais aussi de réfléchir sur le grand récit espéré par les artistes de l’époque.
Resumo:
Au Québec, comme ailleurs en Occident, de plus en plus de personnes sont confrontées à une expérience de souffrance et d’exclusion qui les renvoie à la marge de la société. Cette thèse permet de saisir comment des personnes qui ont vécu une importante situation d'exclusion, entre autres, en raison de leur problème de santé mentale, en arrivent à se reconnaître comme des citoyennes en s'engageant dans leur communauté. Elle amène aussi à comprendre par quel cheminement ou parcours elles sont passées pour en arriver à s'émanciper des limites et contraintes qui pesaient sur elles. Enfin, elle éclaire le rôle joué par la participation à l'intérieur de leur parcours. Menée dans une perspective interdisciplinaire, cette recherche s’alimente de plusieurs courants théoriques tels que la sociologie, la psychanalyse, la science politique et le travail social. La notion de parcours d’émancipation permet de « s’émanciper » du modèle biomédical dominant en santé mentale en présentant une vision sociopolitique intégrant les dimensions individuelle et collective du changement. Elle amène à comprendre la constitution du « sujet-acteur » aux plans personnel et politique, c’est-à-dire le sujet qui advient par le travail de l’individu sur lui-même lui permettant de faire rupture avec son histoire passée et de la reconfigurer de manière à lui donner un nouveau sens, et l’acteur qui vient concrétiser la manifestation du sujet en actes, donc, la façon dont il s’actualise. La recherche met en évidence l’apport des organismes communautaires en santé mentale à ces parcours d’émancipation en identifiant les valeurs qui les animent et les dispositifs mis en place pour soutenir la transformation des personnes dans l’ensemble des dimensions de leur être : rapport à la « maladie », à soi, aux autres et au monde. En s’inspirant de Winnicott, on constate qu’ils constituent des espaces potentiels ou transitionnels qui donnent un ancrage sécuritaire et profond et qui jouent le rôle de « passeur d’être » permettant au sujet de s’actualiser et de devenir autonome. Ils apportent aussi une importante contribution à la réalisation des valeurs démocratiques et offrent des occasions aux personnes de se manifester en tant que « sujets-citoyens ».
Resumo:
Dans les pays industrialisés, les rétinopathies ischémiques proliférantes telles que la rétinopathie diabétique et la rétinopathie du prématuré sont les principales causes de cécité chez les individus en âge de travailler et la population pédiatrique. Ces pathologies sont caractérisées par une dégénérescence microvasculaire initiale suivie d’une hyper-vascularisaton compensatoire disproportionnée et pathologique. Les sirtuines constituent une importante famille de protéines impliquées dans le métabolisme et la réponse au stress. Plus particulièrement, sirtuine 3 (SIRT3) est une déacétylase mitochondriale primordiale qui agit au cœur du métabolisme énergétique et de l’activation de nombreuses voies métaboliques oxydatives. Nos résultats démontrent pour la première fois qu’une déficience en SIRT3 diminue la sévérité des lésions vasculaires dans le modèle murin de rétinopathie induite par l’oxygène (OIR). En plus de stimuler l’angiogénèse, l’absence de SIRT3 est aussi associée à une augmentation de la glycolyse, possiblement en activant la famille de gènes 6-phosphofructo-2-kinase/fructose-2,6-bisphosphatase (PFKFB). Nous suggérons que le manque de SIRT3 est impliqué dans l’effet Warburg et procure ainsi un avantage prolifératif et protecteur dans l’OIR. La présente étude propose SIRT3 comme nouvelle cible thérapeutique potentielle dans la rétinopathie du prématuré, une maladie dont les complications désastreuses persistent tout au long de la vie.
Resumo:
Les immunités législatives pour bonne foi sont une composante importante des règles spécifiques s’appliquant à la responsabilité civile des administrations publiques. Apparues dans les années 1940 au Québec, elles visent à insuffler à la responsabilité civile les considérations propres à l’action étatique (difficulté des tâches, pouvoir discrétionnaire, liberté d’action, etc.). Or, la notion principale de ces immunités, la bonne foi, est d’une nature fragile. Tiraillée entre une vision subjective et objective, elle souffre de nombreuses lacunes. Originalement fondée sur l’évaluation de l’état d’esprit d’une personne, la bonne foi reproduit dorénavant le concept de faute lourde présent en responsabilité civile. Il en résulte un système qui crée de la confusion sur l’état mental nécessaire pour entrainer la responsabilité d’une administration publique. Au surplus, le régime de la bonne foi est variable et change selon les fonctions exercées par les administrations publiques. Ces attributs mettent en exergue le peu d’utilité de cette notion : la bonne foi dédouble plusieurs éléments déjà présents en responsabilité civile québécoise et partant de là, affaiblit sa place comme règle particulière applicable aux administrations publiques. Bref, par son caractère adaptable, la bonne foi est un calque de la responsabilité civile québécoise et son faible apport embrouille le régime de cette dernière.
Resumo:
Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.
Resumo:
Chicha (2009) constate un « trou noir » dans la littérature en ce qui a trait au processus qui engendre une plus forte déqualification à l’endroit des immigrantes universitaires. Ce « trou noir » est considéré comme problématique. D’une part, le gouvernement québécois tente de mettre en place des politiques d’immigration qui recrutent des immigrants ayant un capital humain élevé dans l’espoir qu’ils s’insèrent facilement sur marché de l’emploi. D’autre part, la présence plus marquée de déqualification de ce bassin de main d’œuvre démontre un écart entre la volonté politique et la situation réelle en emploi de ces immigrants. Il semble donc exister un problème de discrimination systémique lorsqu’il est question de déqualification des travailleuses immigrantes. Par souci d’équité et dans l’espoir d’avoir une meilleure compréhension du processus menant à la déqualification des immigrantes les objectifs de cette thèse sont de 1- mieux saisir le concept de discrimination en emploi et 2- mettre en place des mesures mieux adaptées pour s’attaquer à cette discrimination. Pour expliquer ce « trou noir », nous considérons que l’approche systémique est pertinente à cause de sa une vision holistique. Nous avons rencontré 52 immigrantes universitaires qui ont partagé leur parcours professionnel pré et post-migratoire. Les thématiques abordées touchaient à de nombreux sujets telles que leur formation, leur expérience professionnelle, leur stratégie d’unité familiale immigrante, leurs démarches concernant tant le processus de reconnaissance de leurs diplômes étrangers que leur insertion sur le marché de l’emploi, le climat de travail, etc. Les résultats de cette recherche indiquent que la discrimination en emploi est toujours présente sur le marché de l’emploi au Québec. De plus, l’origine ethnique, tel que la couleur de la peau, affecte les attitudes, comportements et propos des acteurs du milieu du travail à l’endroit des xiii immigrantes universitaires. L’application des typologies de Van Laer et Janssens (2011) et de Bonilla-Silva (2006) contribue à l’identification des attitudes, des comportements et des propos pouvant être considérés comme étant du racisme subtil. L’un des avancements de cette thèse est l’amélioration du cadre d’analyse systémique afin de mieux comprendre les difficultés à l’emploi des immigrantes universitaires. Les différentes théories empruntées de la psychologie sociale telles que les théories de similarité attraction, de catégorisation sociale et de qualité d’échanges entre subordonné et supérieur (Roberson et Block, 2001) permettent de peaufiner ce cadre d’analyse systémique, puisqu’il permet de mieux saisir les relations, parfois complexes, qui peuvent s’établir entre les différents acteurs et résulter en de la discrimination flagrante ou subtile.