838 resultados para Mesh generation from image data
Resumo:
Key generation from wireless channels is a promising alternative to public key cryptography for the establishment of cryptographic keys. It is the first paper to experimentally study the channel reciprocity principle of key generation, through investigating and quantifying channel measurements' cross-correlation relationship affected by noise and non-simultaneous measurements. Channel measurements, both received signal strength and channel state information, are collected from a real experimental platform using the wireless open access research platform (WARP) in a multipath office room. We found that in a slow fading channel (e.g., with a coherence time of about 50~ms), the channel cross-correlation is impacted greatly by noise but little by non-simultaneous measurements with a small sampling time difference (e.g., 0.06 ms). The resolution of the sampling time difference can be satisfied by wireless systems such as IEEE 802.11 to maintain an acceptable cross-correlation coefficient without affecting the bandwidth and communication efficiency.
Resumo:
The increasing human activity has been responsible by profound changes and a constinuos degradation of the soil compartment in all the European territory. Some European policies are appearing focusing soil’s protection and the management of contaminated sites, in order to recover land for other uses. To regulate the risk assessment and the management of contaminated soils, many European member states adopted soil guideline values, as for example soil screnning values (SSV).These values are particularly useful for the the first tier of the Ecological Risk Assessment (ERA) processes of contaminated sites,especially for a first screening of sites requiring a more site-specific evaluation. Hence, the approriate definition of regional SSVs will have relevant economic impacts in the management of contaminated sites. Portugal is one of European Member States that still lack these soil guideline values. In this context, this study gaves a remarkable contribution in the generation of ecotoxicological data for soil microbiological parameters, terrestrial plants and invertebrates for the derivation of SSVs for uranium (U), cadmium (Cd) and copper (Cu), using a Portuguese natural soil, representative of a dominant type of soil in the Portuguese territory. SSVs were derived based on two methods proposed by the the Technical Guidance Document for Risk Assessment of the European Commission; namely the assessment factor method (AF) and the species sensitivity distribution (SSD) method (with some adaptations). The outputs of both methods were compared and discussed. Further, this study laid the foundation for a deeper reflection about the cut-off (hazard concentration for a given percentage of species - HCps) to be estimated from the SSDs, and to be selected for the derivation of SSVs, with the adequate level of protection. It was proven that this selection may vary for different contaminants, however a clear justification should be given, in each case. The SSvs proposed in this study were for: U (151.4 mg U kg-1dw), Cd (5.6 mg Cd kg-1dw), and Cu (58.5 mg Cu kg-1dw) These values should now be tested for their descriminating power of soils with different levels of contamination. However, this studies clarifies the approach that should be followed for the derivation of SSVs for other metals and organic contaminants, and for other dominant types of Portuguese natural soils.
Resumo:
Tese de dout., Ciências e Tecnologias das Pescas, Faculdade de Ciências do Mar e do Ambiente, Univ. do Algarve, 2003
Resumo:
Revenue Management’s most cited definitions is probably “to sell the right accommodation to the right customer, at the right time and the right price, with optimal satisfaction for customers and hoteliers”. Smart Revenue Management (SRM) is a project, which aims the development of smart automatic techniques for an efficient optimization of occupancy and rates of hotel accommodations, commonly referred to, as revenue management. One of the objectives of this project is to demonstrate that the collection of Big Data, followed by an appropriate assembly of functionalities, will make possible to generate a Data Warehouse necessary to produce high quality business intelligence and analytics. This will be achieved through the collection of data extracted from a variety of sources, including from the web. This paper proposes a three stage framework to develop the Big Data Warehouse for the SRM. Namely, the compilation of all available information, in the present case, it was focus only the extraction of information from the web by a web crawler – raw data. The storing of that raw data in a primary NoSQL database, and from that data the conception of a set of functionalities, rules, principles and semantics to select, combine and store in a secondary relational database the meaningful information for the Revenue Management (Big Data Warehouse). The last stage will be the principal focus of the paper. In this context, clues will also be giving how to compile information for Business Intelligence. All these functionalities contribute to a holistic framework that, in the future, will make it possible to anticipate customers and competitor’s behavior, fundamental elements to fulfill the Revenue Management
Resumo:
Wireless Sensor Networks (WSN) are being used for a number of applications involving infrastructure monitoring, building energy monitoring and industrial sensing. The difficulty of programming individual sensor nodes and the associated overhead have encouraged researchers to design macro-programming systems which can help program the network as a whole or as a combination of subnets. Most of the current macro-programming schemes do not support multiple users seamlessly deploying diverse applications on the same shared sensor network. As WSNs are becoming more common, it is important to provide such support, since it enables higher-level optimizations such as code reuse, energy savings, and traffic reduction. In this paper, we propose a macro-programming framework called Nano-CF, which, in addition to supporting in-network programming, allows multiple applications written by different programmers to be executed simultaneously on a sensor networking infrastructure. This framework enables the use of a common sensing infrastructure for a number of applications without the users having to worrying about the applications already deployed on the network. The framework also supports timing constraints and resource reservations using the Nano-RK operating system. Nano- CF is efficient at improving WSN performance by (a) combining multiple user programs, (b) aggregating packets for data delivery, and (c) satisfying timing and energy specifications using Rate- Harmonized Scheduling. Using representative applications, we demonstrate that Nano-CF achieves 90% reduction in Source Lines-of-Code (SLoC) and 50% energy savings from aggregated data delivery.
Resumo:
In this research we conducted a mixed research, using qualitative and quantitative analysis to study the relationship and impact between mobile advertisement and mobile app user acquisition and the conclusions companies can derive from it. Data was gathered from management of mobile advertisement campaigns of a portfolio of three different mobile apps. We found that a number of implications can be extracted from this intersection, namely to product development, internationalisation and management of marketing budget. We propose further research on alternative app users sources, impact of revenue on apps and exploitation of product segments: wearable technology and Internet of Things.
Resumo:
Purpose: To develop and evaluate a practical method for the quantification of signal-to-noise ratio (SNR) on coronary MR angiograms (MRA) acquired with parallel imaging.Materials and Methods: To quantify the spatially varying noise due to parallel imaging reconstruction, a new method has been implemented incorporating image data acquisition followed by a fast noise scan during which radio-frequency pulses, cardiac triggering and navigator gating are disabled. The performance of this method was evaluated in a phantom study where SNR measurements were compared with those of a reference standard (multiple repetitions). Subsequently, SNR of myocardium and posterior skeletal muscle was determined on in vivo human coronary MRA.Results: In a phantom, the SNR measured using the proposed method deviated less than 10.1% from the reference method for small geometry factors (<= 2). In vivo, the noise scan for a 10 min coronary MRA acquisition was acquired in 30 s. Higher signal and lower SNR, due to spatially varying noise, were found in myocardium compared with posterior skeletal muscle.Conclusion: SNR quantification based on a fast noise scan is a validated and easy-to-use method when applied to three-dimensional coronary MRA obtained with parallel imaging as long as the geometry factor remains low.
Resumo:
This study investigated, retrospectively, whether recidivism in a sample of court-ordered'graduates of an alcohol education and awareness program could be predicted. This alcohol education program was based on adult education principles and was philosophically akin to the thoughts of Drs. Jack Mezirow, Stephen Brookfield, and Patricia Cranton. Data on the sample of 214 Halton IDEA (Impaired Driver Education and Awareness) graduates were entered into a spread sheet. Descriptive statistics were generated. Each of the 214 program graduates had taken several tests during the course of the IDEA program. These tests measured knowledge, attitude about impaired driving, and degree of alcohol involvement. Test scores were analyzed to determine whether those IDEA graduates who recidivated differed in any measurable way from those who had no further criminal convictions after a period of at least three years. Their criminal records were obtained from the Canadian Police Information Centre (CPIC). Those program graduates who reoffended were compared to the vast majority who did not reoffend. Results of the study indicated that there was no way to determine who would recidivate from the data that were collected. Further studies could use a qualitative model. Follow-up interviews could be used to determine what impact, if any, attendance at the IDEA program had on the life of the graduates.
Resumo:
This research identified and explored the various responses often women Registered Nurses displaced from full-time elnployment as staff nurses in general hospitals in southern Ontario. These nurses were among the hundreds in Ontario who were displaced between October 1991 and October 1995 as a result of organizational downsizing and other health care reform initiatives. The purpose ofthis research was to document tIle responses of nurses to job displacement, and how that experience impacted on a nurse's professional identity and her understanding of the nature and utilization of nursing labour. This study incorporated techniques consistent with the principles of naturalistic inquiry and the narrative tradition. A purposive sample was drawn from the Health Sector Training and Adjustment Program database. Data collection and analysis was a three-step process wherein the data collection in each step was informed by the data analysis in the preceding step. The main technique used for qualitative data collection was semistructured, individual and group interviews. Emerging from the data was a rich and textured story ofhow job displacement disrupted the meaningful connections nurses had with their work. In making meaning of this change, displaced nurses journeyed along a three-step path toward labour adjustment. Structural analysis was the interpretive lens used to view the historical, sociopolitical and ideological forces which constrained the choices reasonably available to displaced nurses while Kelly's personal construct theory was the lens used to view the process of making choices and reconstruing their professional identity.
Resumo:
This research identified and explored the various responses of ten women Registered Nurses displaced from full-time employment as staff nurses in general hospitals in southern Ontario. These nurses were among the hundreds in Ontario who were displaced between October 1991 and October 1995 as a result of organizational downsizing and other health care reform initiatives. The purpose of this research was to document the responses of nurses to job displacement, and how that experience impacted on a nurse's professional identity and her understanding of the nature and utilization of nursing labour. This study incorporated techniques consistent with the principles of naturalistic inquiry and the narrative tradition. A purposive sample was drawn from the Health Sector Training and Adjustment Program database. Data collection and analysis was a three-step process wherein the data collection in each step was informed by the data analysis in the preceding step. The main technique used for qualitative data collection was semistructured, individual and group interviews. Emerging from the data was a rich and textured story of how job displacement disrupted the meaningful connections nurses had with their work. In making meaning of this change, displaced nurses journeyed along a three-step path toward labour adjustment. Structural analysis was the interpretive lens used to view the historical, sociopolitical and ideological forces which constrained the choices reasonably available to displaced nurses while Kelly's personal construct theory was the lens used to view the process of making choices and reconstruing their professional identity.
Resumo:
Comme dans la plupart des pays francophones d’Afrique Subsaharienne, la question du vieillissement ou la situation des personnes âgées ne sont pas encore d’actualité au Niger, principalement à cause de la jeunesse de sa population d’une part et d’un intérêt plus porté sur les enfants, les adolescents et les mères d’autre part. Pourtant le Niger fait face à une crise économique sans précédent qui peut avoir des conséquences néfastes sur les conditions de vie des personnes âgées. D’un côté, selon la coutume, la personne âgée (généralement grand parent) s’occupe principalement des petits enfants (orphelins ou non) qui lui sont confiés par leurs parents vivant dans la même localité ou ailleurs, ou qui sont décédés. De l’autre, l’absence d’un jeune adulte dans un ménage où vit au moins une personne âgée est considérée comme un phénomène social préoccupant dans les pays à forte prévalence de VIH/SIDA. Le Niger fait partie des pays où la proportion des personnes âgées vivant avec des petits enfants en l’absence de leurs parents adultes est la plus élevée. Cependant, malgré une forte mortalité adulte, l’absence de données fiables ne permet pas de le classer parmi les pays à forte mortalité adulte due au VIH/SIDA. La raison de cette situation est donc à chercher dans les différences individuelles et communautaires. Jusqu’au début des années 1990, la plupart des études sur les personnes âgées réalisées en Afrique Subsaharienne étaient basées sur les études qualitatives, tandis que les plus récentes sont faites à partir des données des recensements ou enquêtes sociodémoraphiques et économiques. Les conditions de vie des personnes âgées et les conséquences de la pauvreté et du VIH/SIDA sur celles-ci sont les principaux thèmes jusque-là couverts à l’aide des données existantes. Mais, il manque encore de données longitudinales essentielles à l’analyse de certains aspects du cycle de vie des personnes âgées. L’étude n’étant pas sociologique, c’est à l’aide de données démographiques quantitatives, plus précisément le recensement général de la population, que nous tenterons d’expliquer le phénomène sur une base exploratoire. L’analyse au niveau individuel a été faite à l’aide de la régression logistique sous STATA, tandis qu’au niveau contextuel, nous avons utilisé l’analyse multiniveau à l’aide du logiciel HLM (version 6.0). Les résultats indiquent que la vie en l’absence d’un jeune adulte et dans un ménage à génération coupée dépendent principalement du statut sociodémographique de la personne âgée au Niger. Par exemple, il ressort que le mariage avantage l’homme âgé, tandis que le veuvage l’isole plus que la femme âgée. Au niveau contextuel, ce sont les facteurs socioéconomiques qui influencent les conditions de vie des personnes âgées. L’étude montre, en effet, que le degré d’urbanisation d’une commune augmente le risque d’isolement d’une personne âgée qui y réside, alors que le niveau de pauvreté le réduit. Toutefois, nos résultats sont à prendre avec prudence parce qu’en premier lieu il n’existe pas d’études références sur le sujet tant au Niger que dans la sous-région d’Afrique francophone sahélienne. Ensuite, parce que le phénomène étudié pourrait être mesuré de plusieurs manières en fonction du contexte et des données disponibles, et que l’analyse approfondie des effets du statut matrimonial nécessiterait une plus grande connaissance du phénomène chez les personnes âgées. Enfin, compte tenu de la faible prévalence du VIH/SIDA au Niger, les principaux facteurs explicatifs de la vie dans un ménage à génération coupée (aussi bien pour les personnes âgées que pour les enfants) pourraient être le confiage des enfants ou la mortalité adulte due aux autres causes telles que le paludisme, la tuberculose et les maladies infectieuses. Toutefois, l’absence d’informations relatives à ces aspects dans les données utilisées n’a pas permis de les intégrer dans notre étude. Ainsi, compte tenu de la difficulté d’appréhender les contours du phénomène, les futurs programmes en faveur des personnes âgées au Niger et en Afrique Subsaharienne francophone doivent se baser sur des études concrètes relatives aux dimensions sociale et économique du phénomène. Mots clés : Niger - personnes âgées - conditions de vie - mode de vie - cohabitation intergénérationnelle - études comparatives - absence d’un jeune adulte - ménage à génération coupée - Afrique.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
La microscopie par fluorescence de cellules vivantes produit de grandes quantités de données. Ces données sont composées d’une grande diversité au niveau de la forme des objets d’intérêts et possèdent un ratio signaux/bruit très bas. Pour concevoir un pipeline d’algorithmes efficaces en traitement d’image de microscopie par fluorescence, il est important d’avoir une segmentation robuste et fiable étant donné que celle-ci constitue l’étape initiale du traitement d’image. Dans ce mémoire, je présente MinSeg, un algorithme de segmentation d’image de microscopie par fluorescence qui fait peu d’assomptions sur l’image et utilise des propriétés statistiques pour distinguer le signal par rapport au bruit. MinSeg ne fait pas d’assomption sur la taille ou la forme des objets contenus dans l’image. Par ce fait, il est donc applicable sur une grande variété d’images. Je présente aussi une suite d’algorithmes pour la quantification de petits complexes dans des expériences de microscopie par fluorescence de molécules simples utilisant l’algorithme de segmentation MinSeg. Cette suite d’algorithmes a été utilisée pour la quantification d’une protéine nommée CENP-A qui est une variante de l’histone H3. Par cette technique, nous avons trouvé que CENP-A est principalement présente sous forme de dimère.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.