885 resultados para Competency-Based Approach


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tutkielman tavoitteena oli selvittää, millaisia kysymyksiä patenttien arvonmääritykseen liittyy verotuksen kannalta yritysjärjestelytilanteissa. Tutkimus on deskriptiivinen, kvalitatiivinen ja normatiivinen. Yritysjärjestelytilanteet toteutettuina verolakien mukaan ovat purkautumista lukuun ottamatta veroneutraaleja tapahtumia, jolloin osapuolille ei synny verotettavaa tuloa. Jos puolestaan yritysjärjestelyjä ei toteuteta elinkeinoverolainmukaan, realisoituu verotettavaa tuloa. Tällöin patentitkin arvostetaan elinkeinoverolain mukaan käypään arvoon. Patenttien käyvän arvon määritykseen ei ole yhtä ja oikeaa tapaa. Kuitenkin tuottoarvoon perustuvia arvonmääritystapoja pidetään parhaimpina. Patenttien arvonmääritykseen liittyviä kysymyksiä yritysjärjestelyiden verotuksen kannalta ovatkin, miten säilyttää veroneutraalius sekä miten käypä arvo määritetään, jos veroneutraaliutta ei voida säilyttää.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé: Le développement rapide de nouvelles technologies comme l'imagerie médicale a permis l'expansion des études sur les fonctions cérébrales. Le rôle principal des études fonctionnelles cérébrales est de comparer l'activation neuronale entre différents individus. Dans ce contexte, la variabilité anatomique de la taille et de la forme du cerveau pose un problème majeur. Les méthodes actuelles permettent les comparaisons interindividuelles par la normalisation des cerveaux en utilisant un cerveau standard. Les cerveaux standards les plus utilisés actuellement sont le cerveau de Talairach et le cerveau de l'Institut Neurologique de Montréal (MNI) (SPM99). Les méthodes de recalage qui utilisent le cerveau de Talairach, ou celui de MNI, ne sont pas suffisamment précises pour superposer les parties plus variables d'un cortex cérébral (p.ex., le néocortex ou la zone perisylvienne), ainsi que les régions qui ont une asymétrie très importante entre les deux hémisphères. Le but de ce projet est d'évaluer une nouvelle technique de traitement d'images basée sur le recalage non-rigide et utilisant les repères anatomiques. Tout d'abord, nous devons identifier et extraire les structures anatomiques (les repères anatomiques) dans le cerveau à déformer et celui de référence. La correspondance entre ces deux jeux de repères nous permet de déterminer en 3D la déformation appropriée. Pour les repères anatomiques, nous utilisons six points de contrôle qui sont situés : un sur le gyrus de Heschl, un sur la zone motrice de la main et le dernier sur la fissure sylvienne, bilatéralement. Evaluation de notre programme de recalage est accomplie sur les images d'IRM et d'IRMf de neuf sujets parmi dix-huit qui ont participés dans une étude précédente de Maeder et al. Le résultat sur les images anatomiques, IRM, montre le déplacement des repères anatomiques du cerveau à déformer à la position des repères anatomiques de cerveau de référence. La distance du cerveau à déformer par rapport au cerveau de référence diminue après le recalage. Le recalage des images fonctionnelles, IRMf, ne montre pas de variation significative. Le petit nombre de repères, six points de contrôle, n'est pas suffisant pour produire les modifications des cartes statistiques. Cette thèse ouvre la voie à une nouvelle technique de recalage du cortex cérébral dont la direction principale est le recalage de plusieurs points représentant un sillon cérébral. Abstract : The fast development of new technologies such as digital medical imaging brought to the expansion of brain functional studies. One of the methodolgical key issue in brain functional studies is to compare neuronal activation between individuals. In this context, the great variability of brain size and shape is a major problem. Current methods allow inter-individual comparisions by means of normalisation of subjects' brains in relation to a standard brain. A largerly used standard brains are the proportional grid of Talairach and Tournoux and the Montreal Neurological Insititute standard brain (SPM99). However, there is a lack of more precise methods for the superposition of more variable portions of the cerebral cortex (e.g, neocrotex and perisyvlian zone) and in brain regions highly asymmetric between the two cerebral hemipsheres (e.g. planum termporale). The aim of this thesis is to evaluate a new image processing technique based on non-linear model-based registration. Contrary to the intensity-based, model-based registration uses spatial and not intensitiy information to fit one image to another. We extract identifiable anatomical features (point landmarks) in both deforming and target images and by their correspondence we determine the appropriate deformation in 3D. As landmarks, we use six control points that are situated: one on the Heschl'y Gyrus, one on the motor hand area, and one on the sylvian fissure, bilaterally. The evaluation of this model-based approach is performed on MRI and fMRI images of nine of eighteen subjects participating in the Maeder et al. study. Results on anatomical, i.e. MRI, images, show the mouvement of the deforming brain control points to the location of the reference brain control points. The distance of the deforming brain to the reference brain is smallest after the registration compared to the distance before the registration. Registration of functional images, i.e fMRI, doesn't show a significant variation. The small number of registration landmarks, i.e. six, is obvious not sufficient to produce significant modification on the fMRI statistical maps. This thesis opens the way to a new computation technique for cortex registration in which the main directions will be improvement of the registation algorithm, using not only one point as landmark, but many points, representing one particular sulcus.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The advent of new advances in mobile computing has changed the manner we do our daily work, even enabling us to perform collaborative activities. However, current groupware approaches do not offer an integrating and efficient solution that jointly tackles the flexibility and heterogeneity inherent to mobility as well as the awareness aspects intrinsic to collaborative environments. Issues related to the diversity of contexts of use are collected under the term plasticity. A great amount of tools have emerged offering a solution to some of these issues, although always focused on individual scenarios. We are working on reusing and specializing some already existing plasticity tools to the groupware design. The aim is to offer the benefits from plasticity and awareness jointly, trying to reach a real collaboration and a deeper understanding of multi-environment groupware scenarios. In particular, this paper presents a conceptual framework aimed at being a reference for the generation of plastic User Interfaces for collaborative environments in a systematic and comprehensive way. Starting from a previous conceptual framework for individual environments, inspired on the model-based approach, we introduce specific components and considerations related to groupware.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

NlmCategory="UNASSIGNED">This Perspective discusses the pertinence of variable dosing regimens with anti-vascular endothelial growth factor (VEGF) for neovascular age-related macular degeneration (nAMD) with regard to real-life requirements. After the initial pivotal trials of anti-VEGF therapy, the variable dosing regimens pro re nata (PRN), Treat-and-Extend, and Observe-and-Plan, a recently introduced regimen, aimed to optimize the anti-VEGF treatment strategy for nAMD. The PRN regimen showed good visual results but requires monthly monitoring visits and can therefore be difficult to implement. Moreover, application of the PRN regimen revealed inferior results in real-life circumstances due to problems with resource allocation. The Treat-and-Extend regimen uses an interval based approach and has become widely accepted for its ease of preplanning and the reduced number of office visits required. The parallel development of the Observe-and-Plan regimen demonstrated that the future need for retreatment (interval) could be reliably predicted. Studies investigating the observe-and-plan regimen also showed that this could be used in individualized fixed treatment plans, allowing for dramatically reduced clinical burden and good outcomes, thus meeting the real life requirements. This progressive development of variable dosing regimens is a response to the real-life circumstances of limited human, technical, and financial resources. This includes an individualized treatment approach, optimization of the number of retreatments, a minimal number of monitoring visits, and ease of planning ahead. The Observe-and-Plan regimen achieves this goal with good functional results. Translational Relevance: This perspective reviews the process from the pivotal clinical trials to the development of treatment regimens which are adjusted to real life requirements. The article discusses this translational process which- although not the classical interpretation of translation from fundamental to clinical research, but a subsequent process after the pivotal clinical trials - represents an important translational step from the clinical proof of efficacy to optimization in terms of patients' and clinics' needs. The related scientific procedure includes the exploration of the concept, evaluation of security, and finally proof of efficacy.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[spa] El estudio analiza la evolución de los gases de efecto invernadero (GEI) y las emisiones de acidificación para Italia durante el periodo 1995-2005. Los datos muestran que mientras las emisiones que contribuyen a la acidificación han disminuido constantemente, las emisiones de GEI han aumentado debido al aumento de dióxido de carbono. El objetivo de este estudio es poner de relieve cómo diferentes factores económicos, en particular el crecimiento económico, el desarrollo de una tecnología menos contaminante y la estructura del consumo, han impulsado la evolución de las emisiones. La metodología propuesta es un análisis de descomposición estructural (ADE), método que permite descomponer los cambios de la variable de interés entre las diferentes fuerzas y revelar la importancia de cada factor. Por otra parte, este estudio considera la importancia del comercio internacional e intenta incluir el “problema de la responsabilidad”. Es decir, a través de las relaciones comerciales internacionales, un país podría estar exportando procesos de producción contaminantes sin una reducción real de la contaminación implícita en su patrón de consumo. Con este fin, siguiendo primero un enfoque basado en la “responsabilidad del productor”, el ADE se aplica a las emisiones causadas por la producción nacional. Sucesivamente, el análisis se mueve hacia un enfoque basado en la “responsabilidad del consumidor" y la descomposición se aplica a las emisiones relacionadas con la producción nacional o la producción extranjera que satisface la demanda interna. De esta manera, el ejercicio permite una primera comprobación de la importancia del comercio internacional y pone de relieve algunos resultados a nivel global y a nivel sectorial.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[spa] El estudio analiza la evolución de los gases de efecto invernadero (GEI) y las emisiones de acidificación para Italia durante el periodo 1995-2005. Los datos muestran que mientras las emisiones que contribuyen a la acidificación han disminuido constantemente, las emisiones de GEI han aumentado debido al aumento de dióxido de carbono. El objetivo de este estudio es poner de relieve cómo diferentes factores económicos, en particular el crecimiento económico, el desarrollo de una tecnología menos contaminante y la estructura del consumo, han impulsado la evolución de las emisiones. La metodología propuesta es un análisis de descomposición estructural (ADE), método que permite descomponer los cambios de la variable de interés entre las diferentes fuerzas y revelar la importancia de cada factor. Por otra parte, este estudio considera la importancia del comercio internacional e intenta incluir el “problema de la responsabilidad”. Es decir, a través de las relaciones comerciales internacionales, un país podría estar exportando procesos de producción contaminantes sin una reducción real de la contaminación implícita en su patrón de consumo. Con este fin, siguiendo primero un enfoque basado en la “responsabilidad del productor”, el ADE se aplica a las emisiones causadas por la producción nacional. Sucesivamente, el análisis se mueve hacia un enfoque basado en la “responsabilidad del consumidor" y la descomposición se aplica a las emisiones relacionadas con la producción nacional o la producción extranjera que satisface la demanda interna. De esta manera, el ejercicio permite una primera comprobación de la importancia del comercio internacional y pone de relieve algunos resultados a nivel global y a nivel sectorial.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tutkielman tavoitteena on kuvata ja analysoida valmisteilla olevan pankkien vakavaraisuuskehikon uudistuksen eri osa-alueita erityisesti markkinakurin edellytysten parantamisen kannalta keskittyen julkistamisvaatimuksiin. Lisäksi tutkielmassa arvioidaan koko uudistuksen pankille ja sen eri intressiryhmille aiheuttamia seurauksia, uudistuksen hyviä ja huonoja puolia sekä mahdollisia ongelmakohtia. Tutkielma perustuu Baselin pankkivalvontakomitean ja Euroopan komission toisiin ehdotuksiin vakavaraisuuskehikon uudistamiseksi. Lisää perspektiiviä antavat aiheesta kirjoitetut artikkelit ja julkaisut sekä haastattelut. Pankkien vakavaraisuuskehikon uudistus muodostuu kolmesta toisiaan täydentävästä niin kutsutusta pilarista, jotka ovat 1) vähimmäisvakavaraisuuden laskentatapa, 2) valvontaprosessin vahvistaminen ja 3) markkinakurin edellytysten parantaminen. Uudistus on vielä kesken ja sen sisältö muuttuu jatkuvasti eri tahojen kantojen kirkastuessa. Varsinaisten johtopäätösten teko on siis vielä liian aikaista, mutta jo nyt on selvää, että kyseessä on laaja ja merkittävä uudistus. Se muun muassa mahdollistaa sisäisten riskiluokitusten käytön ja kannustaa pankkeja tehokkaampaan riskien hallintaan sekä moninkertaistaa julkistettavan tiedon määrän nykyiseen säännöstöön verrattuna. Uudistuksen suuntalinjoista vallitsee kansainvälinen yhteisymmärrys, mutta monia ongelmia on vielä ratkaistava. Sen vuoksi laatijatahot ovat päättäneet antaa vielä kolmannen ehdotuksen ennen lopullista päätöstä. Suurimpia huolenaiheita ovat tällä hetkellä yhdenmukainen kansainvälinen täytäntöönpano ja säännösten tasapuolinen noudattaminen. Myös kehikon yksityiskohtaisuus arveluttaa monia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El pràcticum és un entorn privilegiat per a la transferència de competències. Des d"aquesta perspectiva, s"ha desenvolupat el projecte «Anàlisi i avaluació de la transferibilitat de competències professionals de l"Educació Social en els centres de pràctiques» (2008MQD155) a la Universitat de Barcelona durant els cursos 2008-2010. La complexitat de l"objecte d"estudi aconsellava la utilització de mètodes qualitatius. Es va optar per un disseny d"investigació-acció a partir d"espais de reflexió. Des de la percepció dels participants, s"han identificat un conjunt d"elements que afavoreixen la transferència de competències en el marc del pràcticum, entre els quals cal destacar la necessitat d"una planificació conjunta i d"una planificació específica des de cadascun dels escenaris formatius vertebrada des de la reflexió-acció de la pràctica de l"estudiant. Per fer-ho possible, és necessari que els centres de pràctiques i els centres universitaris es reconeguin corresponsables de la formació pràctica.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L"adaptació al nou espai europeu d"educació superior (EEES) ha plantejat alguns canvis en l"enfocament de la formació universitària al nostre país. On abans era el docent el protagonista, ara és l"estudiant el que pren el rol d"actor principal de la seva formació, i l"aprenentatge s"orienta cap a una autonomia i reflexió més grans. En aquest escenari, les noves tecnologies ofereixen un ampli ventall d"opcions per millorar els processos formatius. En aquests sentit, el Grup d"Innovació Docent G IDEA ha participat activament en aquest procés d"adaptació des de ja fa uns quants anys, i ha creat una sèrie de recursos docents digitals que han estat àmpliament provats en diversos ensenyaments de la Facultat d"Economia i Empresa de la Universitat de Barcelona. L"objectiu d"aquest article és presentar el protocol dissenyat per l"equip d"investigadors del G IDEA per implantar aquestes eines didàctiques (webquestes i exercicis tutoritzats), i també els resultats d"una enquesta de satisfacció sobre les competències i habilitats adquirides pels nostres estudiants en la utilització dels recursos. Els resultats mostren, d"una banda, que no ha estat possible crear un mateix protocol aplicable a tots els recursos, a causa de les diferències en els objectius didàctics de les distintes eines docents implantades. D"altra banda, la valoració que els estudiants fan de la utilització de les eines és molt positiva, tot i que hi ha algunes diferències entre els recursos analitzats. Conèixer la valoració que l"alumnat fa d"aquests recursos permet al grup d"investigadors poder-los millorar i adequar al perfil dels estudiants perquè aquests en puguin treure el màxim profit possible.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

[spa] Nuestro objetivo consiste en fomentar, entre alumnos internos del Departamento de Fisiología, el autoaprendizaje, el trabajo autónomo y en equipo, espíritu crítico y habilidad para buscar y analizar información. A la vez se pretende iniciar a estos alumnos en los sistemas de transferencia de resultados de la investigación básica a la investigación aplicada. Para ello a los alumnos se les proporciona materiales que contienen información sobre las materias objeto de aprendizaje y enlaces a diferentes sitios webs de interés relacionados con el tema. En ellos se promueve la exposición de trabajos y la participación en jornadas especializadas. El uso de estos materiales bajo supervisión del profesorado, ha permitido la mejora del conocimiento en Fisiología y la creación de equipos especializados en diferentes aspectos de la Fisiología. Además, la transferencia de información entre alumnos, ha propiciado que puedan adquirir una visión clara y amplia sobre qué es un trabajo de investigación básica o un trabajo de investigación aplicada, así como la importancia del trabajo en equipo, lo que ha posibilitado que pudieran diseñar pequeños experimentos y estudiar su aplicabilidad. Al final del periodo de formación, los alumnos demostraron haber adquirido las competencias genéricas CG1, CG3, CG5, CG6, CG11, CG13 y CG15 incluidas en la ficha Verifica para el Grado en Farmacia, así como las competencias específicas para el módulo 5 (Medicina y Farmacología) CEM5.8, CEM5.9 y CEM5.11, concluyendo así que la aplicación de métodos de enseñanza basados en el autoaprendizaje (bajo supervisión de equipos docentes) constituye una excelente herramienta para la promoción de la adquisición de competencias generales y específicas en el Grado en Farmacia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This review presents the evolution of steroid analytical techniques, including gas chromatography coupled to mass spectrometry (GC-MS), immunoassay (IA) and targeted liquid chromatography coupled to mass spectrometry (LC-MS), and it evaluates the potential of extended steroid profiles by a metabolomics-based approach, namely steroidomics. Steroids regulate essential biological functions including growth and reproduction, and perturbations of the steroid homeostasis can generate serious physiological issues; therefore, specific and sensitive methods have been developed to measure steroid concentrations. GC-MS measuring several steroids simultaneously was considered the first historical standard method for analysis. Steroids were then quantified by immunoassay, allowing a higher throughput; however, major drawbacks included the measurement of a single compound instead of a panel and cross-reactivity reactions. Targeted LC-MS methods with selected reaction monitoring (SRM) were then introduced for quantifying a small steroid subset without the problems of cross-reactivity. The next step was the integration of metabolomic approaches in the context of steroid analyses. As metabolomics tends to identify and quantify all the metabolites (i.e., the metabolome) in a specific system, appropriate strategies were proposed for discovering new biomarkers. Steroidomics, defined as the untargeted analysis of the steroid content in a sample, was implemented in several fields, including doping analysis, clinical studies, in vivo or in vitro toxicology assays, and more. This review discusses the current analytical methods for assessing steroid changes and compares them to steroidomics. Steroids, their pathways, their implications in diseases and the biological matrices in which they are analysed will first be described. Then, the different analytical strategies will be presented with a focus on their ability to obtain relevant information on the steroid pattern. The future technical requirements for improving steroid analysis will also be presented.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Uno de los temas que merece ser objeto de reflexión en el nuevo marco docente diseñado en España como consecuencia de la convergencia hacia el Espacio Europeo de Educación Superior es el de la evaluación, pues ésta adquiere una nueva dimensión al colocarse el estudiante en el centro del proceso de aprendizaje y al aplicarse un enfoque docente basado en competencias y, por ello, se hace necesario replantearse su naturaleza y el diseño de todos los elementos estructurales que la configuran. El objeto de nuestro trabajo se circunscribe a la evaluación de una competencia determinada en el primer curso de grado en Derecho y a la experiencia adquirida en distintas universidades, públicas y privadas, en los primeros años de su aplicación; centrándonos, en concreto, en el caso práctico semipresencial (trabajo colaborativo) como actividad decisiva para el aprendizaje de la competencia asignada a nuestra disciplina y procedimiento óptimo para evaluar su adquisición.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper attempts to shed light on the competencies a teacher must have inorder to teach in online university environments. We will relate a teacher trainingexperience, which was designed taking into account the methodological criteriaestablished in line with previous theoretical principles. The main objective of ouranalysis is to identify the achievements and difficulties of a specific formativeexperience, with the ultimate goal of assessing the suitability of this conceptualmethodologicalframework for the design of formative proposals aiming to contribute tothe development of teacher competencies for virtual environments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Peer-reviewed