39 resultados para Informatique générale
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Afin d’enrichir les outils en matière de solution au décrochage scolaire, cette recherche s’intéresse à l’accompagnement de l’élève et à la réussite au sein de l’école. Elle se déroule dans le cadre de la formation générale des adultes (FGA) âgés de 16 à 24 ans et fréquentant les centres d’éducation des adultes du Québec (CÉA). L’objectif général est de décrire ce qui se fait comme pratiques d’accompagnement de l’élève pour la réussite tout en identifiant les caractéristiques et les objectifs de ces pratiques. Pour ce faire, trois questions de recherche ont été étudiées à savoir : 1) que se fait-il comme pratiques d’accompagnement en FGA, 2) quels sont les objectifs poursuivis par ces pratiques et, enfin, 3) quelles sont les caractéristiques de ces pratiques? Cette étude s’appuie sur l’approche de la sociologie de l'éducation de François Dubet (1994) et propose d’examiner trois dimensions (pédagogique, personnelle et sociale) et sept formes de pratiques d’accompagnement de l’élève : le tutorat, le counseling, le compagnonnage, l’entraide par les pairs, le mentorat, le cybermentorat et les pratiques pédagogiques des enseignants. La démarche étant d’établir un ensemble de pratiques d’accompagnement de l’élève comme il se présente dans le milieu, puisque toutes les pratiques d'accompagnement n’avaient pas été, avant notre recherche, répertoriées en tant que telles. Les résultats obtenus permettent de constater la présence d’un déploiement important de plusieurs pratiques d’accompagnement de l’élève en FGA incluant les pratiques pédagogiques des enseignants. En effet, le tutorat et le counseling sont deux pratiques qui obtiennent des scores importants. De plus, il aura été possible de documenter de façon assez complète les pratiques pédagogiques des enseignantes dites « d’accompagnement de l’élève » et de comprendre l’articulation de l’ensemble de ces pratiques avec la réussite de l’élève au sein de l’école. Au terme de cette recherche, deux sources de connaissances ont été mises en évidence. D’abord, la première découle des composantes issues du modèle théorique à l’étude, ensuite, la deuxième concerne l’explicitation des pratiques pédagogiques des enseignants. Dans les deux cas, les résultats, ainsi que les analyses, révèlent le caractère central de la dimension pédagogique dans l’accompagnement de l’élève en FGA, ce qui nous renvoie à l’importante contribution, en matière d’accompagnement de l’élève en FGA, de l’enseignant, puisque ce dernier inclut l’accompagnement de l’élève dans l’acte même d’enseigner.
Resumo:
La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.
Resumo:
Diverses études cliniques ont démontré l’existence d’un métabolisme extrahépatique du propofol. Le lieu exact de ce métabolisme n’est pas encore complètement élucidé chez l’homme. Des données chez l’animal suggèreraient que le poumon pourrait contribuer à la clairance totale du propofol. Le présent projet vise à investiguer la contribution pulmonaire à l’élimination systémique du propofol chez des patients sous anesthésie générale. Quatorze patients de type ASA I ou II, âgés entre 35 et 70 ans, pour lesquels une chirurgie cardiaque de routine était prévue, ont été inclus dans la présente étude. Le protocole a été préalablement approuvé par le comité d’éthique et les patients ont tous donné par écrit leur consentement éclairé. Le recrutement des patients a eu lieu à l’hôpital Royal Victoria. Le propofol a été administré en induction sous forme de bolus intraveineux, suivi d’une perfusion continue de 50 g/kg/min. Chez un même patient, des prélèvements sanguins pré- et post pulmonaires ont été pris simultanément de l’artère radiale et de l’artère pulmonaire, sous des conditions de ventilation contrôlée ou apnéiques, dans le but de mesurer les concentrations plasmatiques du propofol. Le gradient artério-veineux a été évalué à l’état d’équilibre afin de déterminer la contribution du poumon à l’élimination totale de propofol. Nous n’avons pas pu démontrer l’existence d’une extraction pulmonaire du propofol chez l’humain. Ceci pourrait être dû à plusieurs facteurs méthodologiques.
Resumo:
Une étude récente auprès de 302 mathématiciens canadiens révèle un écart intriguant : tandis que 43% des sondés utilisent la programmation informatique dans leur recherche, seulement 18% indiquent qu'ils emploient cette technologie dans leur enseignement (Buteau et coll., 2014). La première donnée reflète le potentiel énorme qu'a la programmation pour faire et apprendre des mathématiques. La deuxième donnée a inspiré ce mémoire : pourquoi existe-t-il un tel écart ? Pour répondre à cette question, nous avons mené une étude exploratoire qui cherche à mieux comprendre la place de la programmation dans la recherche et la formation en mathématiques au niveau universitaire. Des entrevues semi-dirigées ont été conduites avec 14 mathématiciens travaillant dans des domaines variés et à différentes universités à travers le pays. Notre analyse qualitative nous permet de décrire les façons dont ces mathématiciens construisent des programmes informatiques afin d'accomplir plusieurs tâches (p.e., simuler des phénomènes réels, faire des mathématiques « expérimentales », développer de nouveaux outils puissants). Elle nous permet également d'identifier des moments où les mathématiciens exposent leurs étudiants à certains éléments de ces pratiques en recherche. Nous notons toutefois que les étudiants sont rarement invités à concevoir et à écrire leurs propres programmes. Enfin, nos participants évoquent plusieurs contraintes institutionnelles : le curriculum, la culture départementale, les ressources humaines, les traditions en mathématiques, etc. Quelques-unes de ces contraintes, qui semblent limiter l'expérience mathématique des étudiants de premier cycle, pourraient être revues.
Resumo:
L’objectif de ce projet était de faire le lien entre gènes et métabolites afin d’éventuellement proposer des métabolites à mesurer en lien avec la fonction de gènes. Plus particulièrement, nous nous sommes intéressés aux gènes codant pour des protéines ayant un impact sur le métabolisme, soit les enzymes qui catalysent les réactions faisant partie intégrante des voies métaboliques. Afin de quantifier ce lien, nous avons développé une méthode bio-informatique permettant de calculer la distance qui est définie comme le nombre de réactions entre l’enzyme encodée par le gène et le métabolite dans la carte globale du métabolisme de la base de données Kyoto Encyclopedia of Genes and Genomes (KEGG). Notre hypothèse était que les métabolites d’intérêt sont des substrats/produits se trouvant à proximité des réactions catalysées par l’enzyme encodée par le gène. Afin de tester cette hypothèse et de valider la méthode, nous avons utilisé les études d’association pangénomique combinées à la métabolomique (mGWAS) car elles rapportent des associations entre variants génétiques, annotés en gènes, et métabolites mesurés. Plus précisément, la méthode a été appliquée à l’étude mGWAS par Shin et al. Bien que la couverture des associations de Shin et al. était limitée (24/299), nous avons pu valider de façon significative la proximité entre gènes et métabolites associés (P<0,01). En somme, cette méthode et ses développements futurs permettront d’interpréter de façon quantitative les associations mGWAS, de prédire quels métabolites mesurer en lien avec la fonction d’un gène et, plus généralement, de permettre une meilleure compréhension du contrôle génétique sur le métabolisme.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
Les histones sont des protéines nucléaires hautement conservées chez les cellules des eucaryotes. Elles permettent d’organiser et de compacter l’ADN sous la forme de nucléosomes, ceux-ci representant les sous unités de base de la chromatine. Les histones peuvent être modifiées par de nombreuses modifications post-traductionnelles (PTMs) telles que l’acétylation, la méthylation et la phosphorylation. Ces modifications jouent un rôle essentiel dans la réplication de l’ADN, la transcription et l’assemblage de la chromatine. L’abondance de ces modifications peut varier de facon significative lors du developpement des maladies incluant plusieurs types de cancer. Par exemple, la perte totale de la triméthylation sur H4K20 ainsi que l’acétylation sur H4K16 sont des marqueurs tumoraux spécifiques a certains types de cancer chez l’humain. Par conséquent, l’étude de ces modifications et des événements determinant la dynamique des leurs changements d’abondance sont des atouts importants pour mieux comprendre les fonctions cellulaires et moléculaires lors du développement de la maladie. De manière générale, les modifications des histones sont étudiées par des approches biochimiques telles que les immuno-buvardage de type Western ou les méthodes d’immunoprécipitation de la chromatine (ChIP). Cependant, ces approches présentent plusieurs inconvénients telles que le manque de spécificité ou la disponibilité des anticorps, leur coût ou encore la difficulté de les produire et de les valider. Au cours des dernières décennies, la spectrométrie de masse (MS) s’est avérée être une méthode performante pour la caractérisation et la quantification des modifications d’histones. La MS offre de nombreux avantages par rapport aux techniques traditionnelles. Entre autre, elle permet d’effectuer des analyses reproductibles, spécifiques et facilite l’etude d’un large spectre de PTMs en une seule analyse. Dans cette thèse, nous présenterons le développement et l’application de nouveaux outils analytiques pour l’identification et à la quantification des PTMs modifiant les histones. Dans un premier temps, une méthode a été développée pour mesurer les changements d’acétylation spécifiques à certains sites des histones. Cette méthode combine l’analyse des histones intactes et les méthodes de séquençage peptidique afin de déterminer les changements d’acétylation suite à la réaction in vitro par l’histone acétyltransférase (HAT) de levure Rtt109 en présence de ses chaperonnes (Asf1 ou Vps75). Dans un second temps, nous avons développé une méthode d’analyse des peptides isomériques des histones. Cette méthode combine la LC-MS/MS à haute résolution et un nouvel outil informatique appelé Iso-PeptidAce qui permet de déconvoluer les spectres mixtes de peptides isomériques. Nous avons évalué Iso-PeptidAce avec un mélange de peptides synthétiques isomériques. Nous avons également validé les performances de cette approche avec des histones isolées de cellules humaines érythroleucémiques (K562) traitées avec des inhibiteurs d’histones désacétylases (HDACi) utilisés en clinique, et des histones de Saccharomyces cerevisiae liées au facteur d’assemblage de la chromatine (CAF-1) purifiées par chromatographie d’affinité. Enfin, en utilisant la méthode présentée précédemment, nous avons fait une analyse approfondie de la spécificité de plusieurs HATs et HDACs chez Schizosaccharomyces pombe. Nous avons donc déterminé les niveaux d’acétylation d’histones purifiées à partir de cellules contrôles ou de souches mutantes auxquelles il manque une HAT ou HDAC. Notre analyse nous a permis de valider plusieurs cibles connues des HATs et HDACs et d’en identifier de nouvelles. Nos données ont également permis de définir le rôle des différentes HATs et HDACs dans le maintien de l’équilibre d’acétylation des histones. Dans l’ensemble, nous anticipons que les méthodes décrites dans cette thèse permettront de résoudre certains défis rencontrés dans l’étude de la chromatine. De plus, ces données apportent de nouvelles connaissances pour l’élaboration d’études génétiques et biochimiques utilisant S. pombe.
Resumo:
Introduction : The acute care surgery (ACS) units are dedicated to the prompt management of surgical emergencies. It is a systemic way of organizing on-call services to diminish conflict between urgent care and elective obligations. The aim of this study was to define the characteristics of an ACS unit and to find common criteria in units with reported good functioning. Methods : As of July 1st 2014, 22 Canadian hospitals reported having an ACS unit. A survey with questions about the organization of the ACS units, the population it serves, the number of emergencies and trauma cases treated per year, and the satisfaction about the implementation of this ACS unit was sent to those hospitals. Results : The survey’s response rate was 73%. The majority of hospitals were tertiary or quaternary centers, served a population of more than 200 000 and had their ACS unit for more than three years. The median number of surgeons participating in an ACS unit was 8.5 and the majority were doing seven day rotations. The median number of operating room days was 2.5 per week. Most ACS units (85%) had an estimated annual volume of more than 2500 emergency consultations (including both trauma and non-trauma) and 80% operated over 1000 cases per year. Nearly all the respondents (94%) were satisfied with the implementation of the ACS unit in their hospital. Conclusion : Most surgeons felt that the implementation of an ACS unit resulted in positive outcomes. However, there should be a sizeable catchment population and number of surgical emergencies to justify the resulting financial and human resources.