964 resultados para Automatic Data Processing.


Relevância:

80.00% 80.00%

Publicador:

Resumo:

App Engine on lyhenne englanninkielisistä termeistä application, sovellus ja engine, moottori. Kyseessä on Google, Inc. -konsernin toteuttama kaupallinen palvelu, joka noudattaa pilvimallin tietojenkäsittelyn periaatteita ja mahdollistaa asiakkaan oman sovelluskehityksen. Järjestelmään on mahdollista ohjelmoida itse ideoitu palvelu Internet - verkon välityksellä käytettäväksi, joko yksityisesti tai julkisesti. Kyse on siis hajautetusta palvelinjärjestelmästä, jonka tarjoaa dynaamisesti kuormitukseen sopeutuvan sovellusalustan, jossa asiakas ei vuokraa virtuaalikoneita. Myös järjestelmän tarjoama tallennuskapasiteetti on saatavilla joustavasti. Itse kandidaatintyössä syvennytään yksityiskohtaisemmin sovelluksen toteuttamiseen palvelussa, rajoitteisiin ja soveltuvuuteen. Alussa käydään läpi pilvikäsite, joista monilla tietokoneiden käyttäjillä on epäselvä käsitys. Erilaisia kokonaisuuksia voidaan luoda erittäin monella tavalla, joista rajaamme käsittelyn kohteeksi toteuttamiskelpoiset yleiset ratkaisut.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Reaktorisydämen valvonnalla varmistetaan, että polttoaineelta vaaditut termiset marginaalit toteutuvat ja polttoaineen suojakuori säilyy ehjänä. Olkiluodon kiehutusvesilaitoksen nykyinen sydämen valvontajärjestelmä koostuu SIMULATE-3-sydänsimulaattoriohjelmasta, reaktorisydämen instrumentoinnista, termisen tehon laskentaohjelmasta, tiedonkeruuohjelmista ja käynnistysautomatiikasta. Uusi järjestelmä koostuu näiden lisäksi GARDEL-ohjelmasta, joka on kehitetty kevytvesireaktoreiden sydämen käytön suunnitteluun ja valvontaan. GARDEL käyttää laskentaan samoja ohjelmia, jotka ovat jo Olkiluodon kiehutusvesilaitoksella käytössä. Tämän työn tarkoituksena oli verrata nykyistä ja uutta sydämen valvontajärjestelmää Olkiluodon kiehutusvesilaitoksella. Työssä tutkittiin LPRM-detektorien kalibroinnin jälkeisen datan käsittelyä, palamapäivitystä, stabiilisuuslaskentaa ja adaptiivisia menetelmiä. Järjestelmien vertailuun käytettiin Olkiluoto 2 -laitosyksiköltä käyttöjaksolta 31 (2011–2012) saatuja laskentuloksia. Tulosten perusteella havaittiin uuden järjestelmän laskennassa yksittäisiä virheitä, jotka tulee korjata. Lisäksi uuden järjestelmän toiminnasta tarvitaan lisäselvitystä.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Black meshes used in greenhouses provide shade to plants, affecting photosynthesis and presenting certain properties that change the microclimatic conditions in these environments. The objective of this study was to evaluate the variation in climate elements in greenhouse cultivated with gerbera (Gerbera jamesonii, Vr. Rambo) in relation to external conditions and the reference evapotranspiration (ETo) at Teresina, State of Piauí, Brazil. The measurements were obtained from July to October 2007 by an automatic data acquisition system installed inside and outside the greenhouse. The global solar radiation, evapotranspiration, precipitation, temperature, relative humidity, and wind speed were estimated. The results showed that major effect of the shading occurred on the mean air temperature during the 120 days, making it higher than the external environment. Inside the greenhouse, mean values of relative air humidity, reference evapotranspiração, global solar radiation and wind speed were lower compared to those outside the greenhouse.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this thesis mainly long quasi-periodic solar oscillations in various solar atmospheric structures are discussed, based on data obtained at several wavelengths, focussing, however, mainly on radio frequencies. Sunspot (Articles II and III) and quiet Sun area (QSA) (Article I) oscillations are investigated along with quasi-periodic pulsations (QPP) in a flaring event with wide-range radio spectra (Article IV). Various oscillation periods are detected; 3–15, 35–70 and 90 minutes (QSA), 10-60 and 80-130 minutes (in sunspots at various radio frequencies), 3-5, 10-23, 220-240, 340 and 470 minutes (in sunspots at photosphere) and 8-12 and 15-17 seconds (in a solar flare at radio frequencies). Some of the oscillation periods are detected for the first time, while some of them have been confirmed earlier by other research groups. Solar oscillations can provide more information on the nature of various solar structures. This thesis presents the physical mechanisms of some solar structure oscillations. Two different theoretical approaches are chosen; magnetohydrodynamics (MHD) and the shallow sunspot model. These two theories can explain a wide range of solar oscillations from a few seconds up to some hours. Various wave modes in loop structures cause solar oscillations (<45 minutes) both in sunspots and quiet Sun areas. Periods lasting more than 45 minutes in the sunspots (and a fraction of the shorter periods) are related to sunspot oscillations as a whole. Sometimes similar oscillation periods are detected both in sunspot area variations and respectively in magnetic field strength changes. This result supports a concept that these oscillations are related to sunspot oscillations as a whole. In addition, a theory behind QPPs at radio frequencies in solar flares is presented. The thesis also covers solar instrumentation and data sources. Additionally, the data processing methods are presented. As the majority of the investigations in this thesis focus on radio frequencies, also the most typical radio emission mechanisms are presented. The main structures of the Sun, which are related to solar oscillations, are also presented. Two separate projects are included in this thesis. Solar cyclicity is studied using the extensively large solar radio map archieve from Metsähovi Radio Observatory (MRO) at 37 GHz, between 1978 and 2011 (Article V) covering two full solar cycles. Also, some new solar instrumentation (Article VI) was developed during this thesis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ion mobility spectrometry (IMS) is a straightforward, low cost method for fast and sensitive determination of organic and inorganic analytes. Originally this portable technique was applied to the determination of gas phase compounds in security and military use. Nowadays, IMS has received increasing attention in environmental and biological analysis, and in food quality determination. This thesis consists of literature review of suitable sample preparation and introduction methods for liquid matrices applicable to IMS from its early development stages to date. Thermal desorption, solid phase microextraction (SPME) and membrane extraction were examined in experimental investigations of hazardous aquatic pollutants and potential pollutants. Also the effect of different natural waters on the extraction efficiency was studied, and the utilised IMS data processing methods are discussed. Parameters such as extraction and desorption temperatures, extraction time, SPME fibre depth, SPME fibre type and salt addition were examined for the studied sample preparation and introduction methods. The observed critical parameters were extracting material and temperature. The extraction methods showed time and cost effectiveness because sampling could be performed in single step procedures and from different natural water matrices within a few minutes. Based on these experimental and theoretical studies, the most suitable method to test in the automated monitoring system is membrane extraction. In future an IMS based early warning system for monitoring water pollutants could ensure the safe supply of drinking water. IMS can also be utilised for monitoring natural waters in cases of environmental leakage or chemical accidents. When combined with sophisticated sample introduction methods, IMS possesses the potential for both on-line and on-site identification of analytes in different water matrices.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The aim of this study was to contribute to the current knowledge-based theory by focusing on a research gap that exists in the empirically proven determination of the simultaneous but differentiable effects of intellectual capital (IC) assets and knowledge management (KM) practices on organisational performance (OP). The analysis was built on the past research and theoreticised interactions between the latent constructs specified using the survey-based items that were measured from a sample of Finnish companies for IC and KM and the dependent construct for OP determined using information available from financial databases. Two widely used and commonly recommended measures in the literature on management science, i.e. the return on total assets (ROA) and the return on equity (ROE), were calculated for OP. Thus the investigation of the relationship between IC and KM impacting OP in relation to the hypotheses founded was possible to conduct using objectively derived performance indicators. Using financial OP measures also strengthened the dynamic features of data needed in analysing simultaneous and causal dependences between the modelled constructs specified using structural path models. The estimates were obtained for the parameters of structural path models using a partial least squares-based regression estimator. Results showed that the path dependencies between IC and OP or KM and OP were always insignificant when analysed separate to any other interactions or indirect effects caused by simultaneous modelling and regardless of the OP measure used that was either ROA or ROE. The dependency between the constructs for KM and IC appeared to be very strong and was always significant when modelled simultaneously with other possible interactions between the constructs and using either ROA or ROE to define OP. This study, however, did not find statistically unambiguous evidence for proving the hypothesised causal mediation effects suggesting, for instance, that the effects of KM practices on OP are mediated by the IC assets. Due to the fact that some indication about the fluctuations of causal effects was assessed, it was concluded that further studies are needed for verifying the fundamental and likely hidden causal effects between the constructs of interest. Therefore, it was also recommended that complementary modelling and data processing measures be conducted for elucidating whether the mediation effects occur between IC, KM and OP, the verification of which requires further investigations of measured items and can be build on the findings of this study.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper explores behavioral patterns of web users on an online magazine web-site. The goal of the study is to first find and visualize user paths within the data generated during collection, and to identify some generic behavioral typologies of user behavior. To form a theoretical foundation for processing data and identifying behavioral ar-chetypes, the study relies on established consumer behavior literature to propose typologies of behavior. For data processing, the study utilizes methodologies of ap-plied cluster analysis and sequential path analysis. Utilizing a dataset of click stream data generated from the real-life clicks of 250 ran-domly selected website visitors over a period of six weeks. Based on the data collect-ed, an exploratory method is followed in order to find and visualize generally occur-ring paths of users on the website. Six distinct behavioral typologies were recog-nized, with the dominant user consuming mainly blog content, as opposed to editori-al content. Most importantly, it was observed that approximately 80% of clicks were of the blog content category, meaning that the majority of web traffic occurring in the site takes place in content other than the desired editorial content pages. The out-come of the study is a set of managerial recommendations for each identified behavioral archetype.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tämän kandidaatintutkielman tarkoituksena oli selvittää minkälaisia liiketoiminnallisia mahdollisuuksia ja haasteita Big Dataan ja sen ominaispiirteisiin liittyy, ja miten Big Data määritellään nykyaikaisesti ja ajankohtaisesti. Tutkimusongelmaa lähestyttiin narratiivisen kirjallisuuskatsauksen keinoin. Toisin sanoen tutkielma on hajanaisen tiedon avulla koostettu yhtenäinen katsaus nykytilanteeseen. Lähdeaineisto koostuu pääosin tieteellisistä artikkeleista, mutta käytössä oli myös oppikirjamateriaalia, konferenssijulkaisuja ja uutisartikkeleja. Tutkimuksessa käytetyt akateemisen kirjallisuuden lähteet sisälsivät keskenään paljon samankaltaisia näkemyksiä tutkimusaihetta kohtaan. Niiden perusteella muodostettiin kaksi taulukkoa havaituista mahdollisuuksista ja haasteista, ja taulukoiden rivit nimettiin niitä kuvaavien ominaispiirteiden mukaan. Tutkimuksessa liiketoiminnalliset mahdollisuudet ja haasteet jaettiin viiteen pääkategoriaan ja neljään alakategoriaan. Tutkimus toteutettiin liiketoiminnan näkökulmasta, joten siinä sivuutettiin monenlaisia Big Datan teknisiä aspekteja. Tutkielman luonne on poikkitieteellinen, ja sen avulla pyritään havainnoimaan tämän hetken yhtä uusinta tietojenkäsittelykäsittelytieteiden termiä liiketoiminnallisessa kontekstissa. Tutkielmassa Big Dataan liittyvillä ominaispiirteillä todettiin olevan mahdollisuuksia, jotka voitiin jaotella korrelaatioiden havaitsemisen perusteella markkinoiden tarkemman segmentoinnin mahdollisuuksiin ja päätöksenteon tukena toimimiseen. Reaaliaikaisen seurannan mahdollisuudet perustuvat Big Datan nopeuteen ja kokoon, eli sen jatkuvaan kasvuun. Ominaispiirteisiin liittyvät haasteet voidaan jakaa viiteen kategoriaan, joista osa liittyy toimintaympäristöön ja osa organisaation sisäiseen toimintaan.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This case study examines the impact of a computer information system as it was being implemented in one Ontario hospital. The attitudes of a cross section of the hospital staff acted as a barometer to measure their perceptions of the implementation process. With The Mississauga Hospital in the early stages of an extensive computer implementation project, the opportunity existed to identify staff attitudes about the computer system, overall knowledge and compare the findings with the literature. The goal of the study was to develop a greater base about the affective domain in the relationship between people and the computer system. Eight exploratory questions shaped the focus of the investigation. Data were collected from three sources: a survey questionnaire, focused interviews, and internal hospital documents. Both quantitative and qualitative data were analyzed. Instrumentation in the study consisted of a survey distributed at two points in time to randomly selected hospital employees who represented all staff levels.Other sources of data included hospital documents, and twenty-five focused interviews with staff who replied to both surveys. Leavitt's socio-technical system, with its four subsystems: task, structure, technology, and people was used to classify staff responses to the research questions. The study findings revealed that the majority of respondents felt positive about using the computer as part of their jobs. No apparent correlations were found between sex, age, or staff group and feelings about using the computer. Differences in attitudes, and attitude changes were found in potential relationship to the element of time. Another difference was found in staff group and perception of being involved in the decision making process. These findings and other evidence about the role of change agents in this change process help to emphasize that planning change is one thing, managing the transition is another.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This study examined nurses' attitudes toward computers before training and 2 months after training. A quantitative approach and a nonexperimental survey design were used in this study. Stronge and Brodt's (1985) instrument, Nurses' Attitudes Toward Computerization Questionnaire, was used to assess 27 nurses' attitudes prior to and 2 months after computer training. Demographic variables also were collected on the questionnaires. The results of this study showed that, overall, nurses had positive attitudes towards computers in both questionnaires. The results of the first questionnaire were consistent with other studies. There were no studies that involved a follow-up questionnaire using Stronge and Brodt's (1985) instrument. Attitude scores of Questionnaire 2 were higher than attitude scores of Questionnaire 1. More time for nursing tasks, less time for quality patient care, and threat to job security questions were found to be statistically significant. This study found no statistical significance between attitudes and demographic variables. Younger nurses a~d nurses with fewer years of computer experience were most likely to exhibit positive attitudes. Implications for practice and future research were discussed. Some limitations were identified and discussed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A simple, low-cost concentric capillary nebulizer (CCN) was developed and evaluated for ICP spectrometry. The CCN could be operated at sample uptake rates of 0.050-1.00 ml min'^ and under oscillating and non-oscillating conditions. Aerosol characteristics for the CCN were studied using a laser Fraunhofter diffraction analyzer. Solvent transport efficiencies and transport rates, detection limits, and short- and long-term stabilities were evaluated for the CCN with a modified cyclonic spray chamber at different sample uptake rates. The Mg II (280.2nm)/l\/lg 1(285.2nm) ratio was used for matrix effect studies. Results were compared to those with conventional nebulizers, a cross-flow nebulizer with a Scott-type spray chamber, a GemCone nebulizer with a cyclonic spray chamber, and a Meinhard TR-30-K3 concentric nebulizer with a cyclonic spray chamber. Transport efficiencies of up to 57% were obtained for the CCN. For the elements tested, short- and long-term precisions and detection limits obtained with the CCN at 0.050-0.500 ml min'^ are similar to, or better than, those obtained on the same instrument using the conventional nebulizers (at 1.0 ml min'^). The depressive and enhancement effects of easily ionizable element Na, sulfuric acid, and dodecylamine surfactant on analyte signals with the CCN are similar to, or better than, those obtained with the conventional nebulizers. However, capillary clog was observed when the sample solution with high dissolved solids was nebulized for more than 40 min. The effects of data acquisition and data processing on detection limits were studied using inductively coupled plasma-atomic emission spectrometry. The study examined the effects of different detection limit approaches, the effects of data integration modes, the effects of regression modes, the effects of the standard concentration range and the number of standards, the effects of sample uptake rate, and the effect of Integration time. All the experiments followed the same protocols. Three detection limit approaches were examined, lUPAC method, the residual standard deviation (RSD), and the signal-to-background ratio and relative standard deviation of the background (SBR-RSDB). The study demonstrated that the different approaches, the integration modes, the regression methods, and the sample uptake rates can have an effect on detection limits. The study also showed that the different approaches give different detection limits and some methods (for example, RSD) are susceptible to the quality of calibration curves. Multicomponents spectral fitting (MSF) gave the best results among these three integration modes, peak height, peak area, and MSF. Weighted least squares method showed the ability to obtain better quality calibration curves. Although an effect of the number of standards on detection limits was not observed, multiple standards are recommended because they provide more reliable calibration curves. An increase of sample uptake rate and integration time could improve detection limits. However, an improvement with increased integration time on detection limits was not observed because the auto integration mode was used.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La biométrie, appliquée dans un contexte de traitement automatisé des données et de reconnaissance des identités, fait partie de ces technologies nouvelles dont la complexité d’utilisation fait émerger de nouveaux enjeux et où ses effets à long terme sont incalculables. L’envergure des risques suscite des questionnements dont il est essentiel de trouver les réponses. On justifie le recours à cette technologie dans le but d’apporter plus de sécurité, mais, vient-elle vraiment apporter plus de protection dans le contexte actuel? En outre, le régime législatif québécois est-il suffisant pour encadrer tous les risques qu’elle génère? Les technologies biométriques sont flexibles en ce sens qu’elles permettent de saisir une multitude de caractéristiques biométriques et offrent aux utilisateurs plusieurs modalités de fonctionnement. Par exemple, on peut l’utiliser pour l’identification tout comme pour l’authentification. Bien que la différence entre les deux concepts puisse être difficile à saisir, nous verrons qu’ils auront des répercussions différentes sur nos droits et ne comporteront pas les mêmes risques. Par ailleurs, le droit fondamental qui sera le plus touché par l’utilisation de la biométrie sera évidemment le droit à la vie privée. Encore non bien compris, le droit à la vie privée est complexe et son application est difficile dans le contexte des nouvelles technologies. La circulation des données biométriques, la surveillance accrue, le détournement d’usage et l’usurpation d’identité figurent au tableau des risques connus de la biométrie. De plus, nous verrons que son utilisation pourra avoir des conséquences sur d’autres droits fondamentaux, selon la manière dont le système est employé. Les tests de nécessité du projet et de proportionnalité de l’atteinte à nos droits seront les éléments clés pour évaluer la conformité d’un système biométrique. Ensuite, le succès de la technologie dépendra des mesures de sécurité mises en place pour assurer la protection des données biométriques, leur intégrité et leur accès, une fois la légitimité du système établie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’épilepsie bénigne à pointes centrotemporales (EPCT) est la forme la plus fréquente des épilepsies idiopathiques chez l’enfant (Fastenau et al., 2009). Le pronostic de ces patients est bon, notamment en raison de la rémission spontanée de cette épilepsie à l’adolescence; toutefois plusieurs études suggèrent la présence de troubles cognitifs et de spécificités neuroanatomiques. Il n’existe pas actuellement de consensus sur les liens entre leurs troubles cognitifs et leurs particularités neuroanatomiques et neurofonctionnelles. Dans cette thèse, notre but est de préciser le profil des enfants ayant une épilepsie bénigne à pointes centro-temporales, en investiguant les caractéristiques des patients à plusieurs niveaux: cognitif, fonctionnel, structurel. La thèse est composée de quatre articles, dont deux articles empiriques. Notre premier article a pour objectif de recenser les difficultés cognitives et affectives rapportées par les études s’intéressant aux caractéristiques des enfants ayant une épilepsie bénigne. Bien qu’une certaine variabilité soit retrouvée dans la littérature, cette revue démontre qu’une histoire d’épilepsie, même bénigne, peut être un facteur de risque pour le développement cognitif et socio-affectif des enfants. Notre revue de littérature a indiqué des troubles particuliers du langage chez ces enfants, mais aucune étude n’avait auparavant investigué spécifiquement la compréhension de lecture chez les enfants ayant une EPCT, une compétence essentielle dans le cheminement scolaire des enfants. Ainsi, nous avons développé une tâche novatrice de compréhension de lecture de phrases en imagerie par résonnance magnétique fonctionnelle (IRMf), adaptée à la population pédiatrique. Dans notre second article, nous avons validé cette tâche auprès d’enfants sains et nous avons mis en évidence une mobilisation des régions cérébrales généralement engagées dans des tâches langagières chez l’enfant sain, y compris les régions impliquées dans le traitement sémantique (Berl et al., 2010; Blumenfeld, Booth et Burman, 2006). Le troisième article de cette thèse rapporte notre investigation du réseau cérébral activé durant cette nouvelle tâche de compréhension de lecture de phrases en IRMf chez les enfants ayant une EPCT. Nos résultats suggèrent que ces derniers ont recours à l’activation d’un réseau cérébral plus large, présentant des similarités avec celui retrouvé chez les enfants dyslexiques. Par ailleurs, l’activation du striatum gauche, structure généralement associée à la réalisation de processus cognitifs complexes est uniquement retrouvée chez les enfants épileptiques. Étant donné que les enfants ayant une EPCT obtiennent des performances à la tâche d’IRMf équivalentes à celles des enfants sains, il est possible d’émettre l’hypothèse que ces différences d’activations cérébrales soient adaptatives. L’étude des relations entre les résultats neuropsychologiques, la performance à la tâche et les activations cérébrales a mis en évidence des prédicteurs différents entre les deux groupes d’enfants, suggérant qu’ils ne s’appuient pas exactement sur les mêmes processus cognitifs pour réussir la tâche. De plus, nous avons réalisé un travail d’intégration des diverses méthodologies utilisées dans les études en imagerie pondérée en diffusion chez l’enfant épileptique, ce qui constitue le quatrième article de cette thèse. Nous rapportons les diverses applications de cette méthode dans la caractérisation des anomalies structurelles subtiles de la matière blanche chez les enfants épileptiques en général. Les différentes méthodologies employées, les enjeux, et les biais potentiels relatifs aux traitements des données de diffusion y sont discutés. Enfin, pour mieux comprendre l’origine et les marqueurs de cette épilepsie, nous avons étudié les spécificités structurelles des cerveaux des enfants ayant une EPCT à l’aide d’analyses sur les données d’imagerie par résonnance magnétique. Aucune différence n’a été mise en évidence au niveau de la matière grise entre les cerveaux d’enfants sains et ceux ayant une EPCT. À l’inverse, nous rapportons des différences subtiles au niveau de la matière blanche dans notre population d’enfants épileptiques, avec une diminution de l’anisotropie fractionnelle (FA) au niveau temporal inférieur/moyen de l’hémisphère gauche, ainsi que dans l’hémisphère droit dans les régions frontales moyennes et occipitales inférieures. Ces résultats suggèrent la présence d’altérations de la matière blanche subtiles et diffuses dans le cerveau des enfants ayant une EPCT et concordent avec ceux d’autres études récentes (Ciumas et al., 2014).