997 resultados para technologie
Resumo:
Nous proposons de construire un atlas numérique 3D contenant les caractéristiques moyennes et les variabilités de la morphologie d’un organe. Nos travaux seront appliqués particulièrement à la construction d'un atlas numérique 3D de la totalité de la cornée humaine incluant la surface antérieure et postérieure à partir des cartes topographiques fournies par le topographe Orbscan II. Nous procédons tout d'abord par normalisation de toute une population de cornées. Dans cette étape, nous nous sommes basés sur l'algorithme de recalage ICP (iterative closest point) pour aligner simultanément les surfaces antérieures et postérieures d'une population de cornée vers les surfaces antérieure et postérieure d'une cornée de référence. En effet, nous avons élaboré une variante de l'algorithme ICP adapté aux images (cartes) de cornées qui tient compte de changement d'échelle pendant le recalage et qui se base sur la recherche par voisinage via la distance euclidienne pour établir la correspondance entre les points. Après, nous avons procédé pour la construction de l'atlas cornéen par le calcul des moyennes des élévations de surfaces antérieures et postérieures recalées et leurs écarts-types associés. Une population de 100 cornées saines a été utilisée pour construire l'atlas cornéen normal. Pour visualiser l’atlas, on a eu recours à des cartes topographiques couleurs similairement à ce qu’offrent déjà les systèmes topographiques actuels. Enfin, des observations ont été réalisées sur l'atlas cornéen reflétant sa précision et permettant de développer une meilleure connaissance de l’anatomie cornéenne.
Resumo:
Les modèles de réflexion complexes, avec leurs nombreux paramètres dont certains restent non intuitifs, sont difficiles à contrôler pour obtenir une apparence désirée. De plus, même si un artiste peut plus aisément comprendre la forme de la micro-géométrie d'une surface, sa modélisation en 3D et sa simulation en 4D demeurent extrêmement fastidieuses et coûteuses en mémoire. Nous proposons une solution intermédiaire, où l'artiste représente en 2D une coupe dans un matériau, en dessinant une micro-géométrie de surface en multi-couches. Une simulation efficace par lancer de rayons en seulement 2D capture les distributions de lumière affectées par les micro-géométries. La déviation hors-plan est calculée automatiquement de façon probabiliste en fonction de la normale au point d'intersection et de la direction du rayon incident. Il en résulte des BRDFs isotropes complètes et complexes, simulées à des vitesses interactives, et permettant ainsi une édition interactive de l'apparence de réflectances riches et variées.
Resumo:
La stimulation du récepteur de la rénine/prorénine [(P) RR], un membre récemment découvert du système rénine-angiotensine (SRA), augmente l'activité du SRA et des voies de signalisation angiotensine II-indépendante. Pour étudier l'impact potentiel du (P)RR dans le développement de l`obésité, nous avons émis l'hypothèse que les souris déficientes en (P)RR uniquement dans le tissus adipeux (KO) auront une diminution du poids corporel en ciblant le métabolisme du tissu adipeux, l'activité locomoteur et/ou la prise alimentaire. Ainsi, des souris KO ont été générées en utilisant la technologie Cre/Lox. Le gain de poids et la prise alimentaire ont été évalués hebdomadairement dans les mâles et femelles KO et de type sauvage (WT) pendant 4 semaines alors qu’ils étaient maintenu sur une diète normal. De plus, un groupe de femelles a été placé pour 6 semaines sur une diète riche en gras et en glucides (HF/HC). La composition corporelle et l'activité ambulatoire ont été évaluées par l’EchoMRI et à l’aide de cages Physioscan, respectivement. Les tissus adipeux ont été prélevés et pesés. De plus, les gras péri-gonadaux ont été utilisés pour le microarray. Finalement, le niveaux d'expression d'ARNm du (P)RR ont été évalués. Comme le gène du (P)RR est situé sur le chromosome X, les mâles étaient des KOs complets et les femelles étaient des KOs partielles. Les souris KO avaient un poids corporel significativement plus petit par rapport à WT, les différences étant plus prononcées chez les mâles. De plus, les femelles KOs étaient résistantes à l'obésité lorsqu'elles ont été placées sur la diète HF/HC et donc elles avaient significativement moins de masse grasse par rapport aux WTs. L’analyse histologique des gras péri-gonadaux des KOs nous ont dévoilés qu’il avait une réduction du nombre d'adipocytes mais de plus grande taille. Bien qu'il n'y ait eu aucun changement dans la consommation alimentaire, une augmentation de près de 3 fois de l'activité ambulatoire a été détectée chez les mâles. De plus, nous avons observé que leurs tibias étaient de longueur réduite ce qui suggère fortement l'affection de leur développement. Les gras péri-gonadaux des souris KO avaient une expression réduite de l`ABLIM2 (Actin binding LIM protein family, member 2) qui est associé avec le diabète de type II chez l'humain. Ainsi, les données recueillies suggèrent fortement que le (P)RR est impliquée dans la régulation du poids corporelle.
Resumo:
Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes
Resumo:
L’objet de ce mémoire est de comprendre les logiques de localisation des entreprises multinationales au Québec. À l’aide de deux études de cas, basées sur cinq investissements, nous avons examiné les facteurs qui ont permis à deux filiales d’entreprises multinationales étrangères d’obtenir un investissement ou un réinvestissement. La littérature sur la localisation des entreprises multinationales à l’étranger nous a aidé à identifier trois types d’attributs qui sont susceptibles d’influencer l‘obtention d’un investissement par la filiale locale : les attributs internes à la filiale, les attributs liés à la relation qu’entretient la filiale avec son siège social et les attributs liés aux contextes d’affaires dans lesquels la filiale exerce son activité. Nos résultats permettent d’établir plusieurs constats. Premièrement, les facteurs pris en compte dans les décisions d’investissement varient selon les échelles internationales, nationales, provinciales et locales. Les sièges sociaux des entreprises multinationales procèdent à une sélection successive de facteurs dans la perspective d’arriver à un meilleur compromis. Par conséquent, un facteur ne peut à lui seul expliquer un investissement. Le poids et la diversité des facteurs peuvent varier en fonction des situations. Deuxièmement, la complémentarité des attributs internes de la filiale avec son contexte d’affaires local a fortement contribué à l’obtention d’investissements. La technologie de production, les compétences des employés ainsi que la capacité de la direction locale à promouvoir les atouts de la filiale auprès des comités d’investissement représentent des éléments clés. La présence d’institutions locales fortes et coordonnées est également à prendre en compte dans le soutien apporté au développement de la filiale.
Resumo:
Les surfaces de subdivision fournissent une méthode alternative prometteuse dans la modélisation géométrique, et ont des avantages sur la représentation classique de trimmed-NURBS, en particulier dans la modélisation de surfaces lisses par morceaux. Dans ce mémoire, nous considérons le problème des opérations géométriques sur les surfaces de subdivision, avec l'exigence stricte de forme topologique correcte. Puisque ce problème peut être mal conditionné, nous proposons une approche pour la gestion de l'incertitude qui existe dans le calcul géométrique. Nous exigeons l'exactitude des informations topologiques lorsque l'on considère la nature de robustesse du problème des opérations géométriques sur les modèles de solides, et il devient clair que le problème peut être mal conditionné en présence de l'incertitude qui est omniprésente dans les données. Nous proposons donc une approche interactive de gestion de l'incertitude des opérations géométriques, dans le cadre d'un calcul basé sur la norme IEEE arithmétique et la modélisation en surfaces de subdivision. Un algorithme pour le problème planar-cut est alors présenté qui a comme but de satisfaire à l'exigence topologique mentionnée ci-dessus.
Resumo:
Le diabète de type 2 (DT2) est une maladie métabolique complexe causée par des facteurs génétiques mais aussi environnementaux, tels la sédentarité et le surpoids. La dysfonction de la cellule β pancréatique est maintenant reconnue comme l’élément déterminant dans le développement du DT2. Notre laboratoire s’intéresse à la sécrétion d’insuline par la cellule β en réponse aux nutriments calorigéniques et aux mécanismes qui la contrôle. Alors que la connaissance des mécanismes responsables de l’induction de la sécrétion d’insuline en réponse aux glucose et acides gras est assez avancée, les procédés d’inhibition de la sécrétion dans des contextes normaux ou pathologiques sont moins bien compris. L’objectif de la présente thèse était d’identifier quelques-uns de ces mécanismes de régulation négative de la sécrétion d’insuline dans la cellule β pancréatique, et ce en situation normale ou pathologique en lien avec le DT2. La première hypothèse testée était que l’enzyme mitochondriale hydroxyacyl-CoA déshydrogénase spécifique pour les molécules à chaîne courte (short-chain hydroxyacyl-CoA dehydrogenase, SCHAD) régule la sécrétion d’insuline induite par le glucose (SIIG) par la modulation des concentrations d’acides gras ou leur dérivés tels les acyl-CoA ou acyl-carnitine dans la cellule β. Pour ce faire, nous avons utilisé la technologie des ARN interférants (ARNi) afin de diminuer l’expression de SCHAD dans la lignée cellulaire β pancréatique INS832/13. Nous avons par la suite vérifié chez la souris DIO (diet-induced obesity) si une exposition prolongée à une diète riche en gras activerait certaines voies métaboliques et signalétiques assurant une régulation négative de la sécrétion d’insuline et contribuerait au développement du DT2. Pour ce faire, nous avons mesuré la SIIG, le métabolisme intracellulaire des lipides, la fonction mitochondriale et l’activation de certaines voies signalétiques dans les îlots de Langerhans isolés des souris normales (ND, normal diet) ou nourries à la dière riche en gras (DIO) Nos résultats suggèrent que l’enzyme SCHAD est importante dans l’atténuation de la sécrétion d’insuline induite par le glucose et les acides aminés. En effet, l’oxydation des acides gras par la protéine SCHAD préviendrait l’accumulation d’acyl-CoA ou de leurs dérivés carnitine à chaîne courtes potentialisatrices de la sécrétion d’insuline. De plus, SCHAD régule le métabolisme du glutamate par l’inhibition allostérique de l’enzyme glutamate déshydrogénase (GDH), prévenant ainsi une hyperinsulinémie causée par une sur-activité de GDH. L’étude de la dysfonction de la cellule β dans le modèle de souris DIO a démontré qu’il existe une grande hétérogénéité dans l’obésité et l’hyperglycémie développées suite à la diète riche en gras. L’orginialité de notre étude réside dans la stratification des souris DIO en deux groupes : les faibles et forts répondants à la diète (low diet responders (LDR) et high diet responder (HDR)) sur la base de leur gain de poids corporel. Nous avons mis en lumières divers mécanismes liés au métabolisme des acides gras impliqués dans la diminution de la SIIG. Une diminution du flux à travers le cycle TG/FFA accompagnée d’une augmentation de l’oxydation des acides gras et d’une accumulation intracellulaire de cholestérol contribuent à la diminution de la SIIG chez les souris DIO-HDR. De plus, l’altération de la signalisation par les voies AMPK (AMP-activated protein kinase) et PKC epsilon (protéine kinase C epsilon) pourrait expliquer certaines de ces modifications du métabolisme des îlots DIO et causer le défaut de sécrétion d’insuline. En résumé, nous avons mis en lumière des mécanismes importants pour la régulation négative de la sécrétion d’insuline dans la cellule β pancréatique saine ou en situation pathologique. Ces mécanismes pourraient permettre d’une part de limiter l’amplitude ou la durée de la sécrétion d’insuline suite à un repas chez la cellule saine, et d’autre part de préserver la fonction de la cellule β en retardant l’épuisement de celle-ci en situation pathologique. Certaines de ces voies peuvent expliquer l’altération de la sécrétion d’insuline dans le cadre du DT2 lié à l’obésité. À la lumière de nos recherches, le développement de thérapies ayant pour cible les mécanismes de régulation négative de la sécrétion d’insuline pourrait être bénéfique pour le traitement de patients diabétiques.
Resumo:
Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.
Resumo:
L’innovation pédagogique pour elle-même s’avère parfois discutable, mais elle se justifie quand les enseignants se heurtent aux difficultés d’apprentissage de leurs étudiants. En particulier, certaines notions de physique sont réputées difficiles à appréhender par les étudiants, comme c’est le cas pour l’effet photoélectrique qui n’est pas souvent compris par les étudiants au niveau collégial. Cette recherche tente de déterminer si, dans le cadre d’un cours de physique, la simulation de l’effet photoélectrique et l’utilisation des dispositifs mobiles et en situation de collaboration favorisent une évolution des conceptions des étudiants au sujet de la lumière. Nous avons ainsi procédé à l’élaboration d’un scénario d’apprentissage collaboratif intégrant une simulation de l’effet photoélectrique sur un ordinateur de poche. La conception du scénario a d’abord été influencée par notre vision socioconstructiviste de l’apprentissage. Nous avons effectué deux études préliminaires afin de compléter notre scénario d’apprentissage et valider la plateforme MobileSim et l’interface du simulateur, que nous avons utilisées dans notre expérimentation : la première avec des ordinateurs de bureau et la seconde avec des ordinateurs de poche. Nous avons fait suivre à deux groupes d’étudiants deux cours différents, l’un portant sur une approche traditionnelle d’enseignement, l’autre basé sur le scénario d’apprentissage collaboratif élaboré. Nous leur avons fait passer un test évaluant l’évolution conceptuelle sur la nature de la lumière et sur le phénomène de l’effet photoélectrique et concepts connexes, à deux reprises : la première avant que les étudiants ne s’investissent dans le cours et la seconde après la réalisation des expérimentations. Nos résultats aux prétest et post-test sont complétés par des entrevues individuelles semi-dirigées avec tous les étudiants, par des enregistrements vidéo et par des traces récupérées des fichiers logs ou sur papier. Les étudiants du groupe expérimental ont obtenu de très bons résultats au post-test par rapport à ceux du groupe contrôle. Nous avons enregistré un gain moyen d’apprentissage qualifié de niveau modéré selon Hake (1998). Les résultats des entrevues ont permis de repérer quelques difficultés conceptuelles d’apprentissage chez les étudiants. L’analyse des données recueillies des enregistrements des séquences vidéo, des questionnaires et des traces récupérées nous a permis de mieux comprendre le processus d’apprentissage collaboratif et nous a dévoilé que le nombre et la durée des interactions entre les étudiants sont fortement corrélés avec le gain d’apprentissage. Ce projet de recherche est d’abord une réussite sur le plan de la conception d’un scénario d’apprentissage relatif à un phénomène aussi complexe que l’effet photoélectrique, tout en respectant de nombreux critères (collaboration, simulation, dispositifs mobiles) qui nous paraissaient extrêmement utopiques de réunir dans une situation d’apprentissage en classe. Ce scénario pourra être adapté pour l’apprentissage d’autres notions de la physique et pourra être considéré pour la conception des environnements collaboratifs d’apprentissage mobile innovants, centrés sur les besoins des apprenants et intégrant les technologies au bon moment et pour la bonne activité.
Resumo:
Étude de cas / Case study
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Réalisé en cotutelle avec l’Université Lumière Lyon 2
Resumo:
"Suite à plus de deux années de recherches, le projet de l’American Bar Association (ABA) concernant la juridiction du cyberespace, « Achieving Legal and Business Order in Cyberspace: A Report on Global Jurisdiction Issues Created by the Internet », a été publié dans l’édition du mois d’août 2000 de la revue juridique The Business Lawyer. Ce rapport poursuivait deux objectifs distincts : Tout d’abord, effectuer une analyse globale des complexités potentielles entourant les conflits juridictionnels découlant du commerce en ligne. Ensuite, élaborer une liste exhaustive des solutions pouvant être utilisées pour résoudre de tels conflits. Le présent article se veut un résumé concis et accessible des trois grandes sections du « Cyberspace Jurisdiction Report » : (1) les solutions proposées aux problèmes juridictionnels découlant des conflits résultant du commerce électronique ; (2) afin d’appuyer les solutions proposées : l’utilisation d’exemples d’occasions où la technologie a déjà, par le passé, causé la métamorphose de certains paradigmes juridictionnels; et (3) afin d’appuyer les solutions proposées : l’utilisation d’un contexte doctrinal."
Resumo:
"La publication simultanée est un paradigme nouveau de diffusion dans Internet. Au lieu de privilégier l'aspect visuel d'une page, la famille de technologies RSS permet de communiquer la structure d'un site, en vue d'une navigation plus systématique et rapide. À l'instar du foisonnement qui caractérisait la bulle Internet du tournant du millénaire, plusieurs saveurs de cette technologie furent développées en parallèle par différents groupes. L'acronyme RSS reflète cette compétition et désigne, successivement, Rich Site Summary (RSS 0.91); RDF Site Summary (RSS 0.9 and 1.0) ainsi que Really Simple Syndication (RSS 2.0). Par ailleurs, Atom 1.0 représente un format RSS entériné par les organes de standardisation d'Internet. Sont présentés les mécanismes de publication et de compilation de fils RSS."
Resumo:
L'eugénisme fascine. L'eugénisme fait peur. D'ailleurs, le spectre de cette idéologie, lié à un passé riche en histoire, revient en force et suscite des craintes de dérives quant à l'avancement des connaissances scientifiques et de leurs applications principalement dans le débat sur le diagnostic préimplantatoire. Alors que nous nous intéressons à son encadrement normatif, une approche historique permet de guider le législateur afin de ne pas répéter des erreurs passées et de mieux en comprendre les enjeux. Or, une loi eugénique a déjà existé au Canada en matière de stérilisation des personnes mentalement handicapées. À la lumière de celle-ci et de son histoire, l'auteur s'interroge sur les leçons que nous pouvons appliquer au diagnostic préimplantatoire, une technologie génétique permettant de sélectionner un enfant créé in vitro en fonction de son profil génétique.