937 resultados para Contextes géo-administratifs


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The identification and characterization of long noncoding RNA in a variety of tissues represent major achievements that contribute to our understanding of the molecular mechanisms controlling gene expression. In particular, long noncoding RNA play crucial roles in the epigenetic regulation of the adaptive response to environmental cues via their capacity to target chromatin modifiers to specific locus. In addition, these transcripts have been implicated in controlling splicing, translation and degradation of messenger RNA. Long noncoding RNA have also been shown to act as decoy molecules for microRNA. In the heart, a few long noncoding RNA have been demonstrated to regulate cardiac commitment and differentiation during development. Furthermore, recent findings suggest their involvement as regulators of the pathophysiological response to injury in the adult heart. Their high cellular specificity makes them attractive target molecules for innovative therapies and ideal biomarkers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

S'inscrivant dans le sous-domaine interdisciplinaire de l'Urban Political Ecology (UPE), cette thèse dresse une géo-histoire foucauldienne de l'eau urbaine, particulièrement l'eau en réseau, en Suisse entre 1850 et nos jours. Plus précisément, il s'agit d'une étude des modes d'exercice du pouvoir (les formes de gouvernementalité) et de leurs outils (les technologies de pouvoir), focalisée sur l'eau en réseau et menée à l'aide d'une méthode archéogénéalogique. Cette recherche apporte des contributions théoriques et empiriques à l'UPE. Du côté théorique, elle propose l'adoption d'une approche foucauldienne dans le domaine de l'UPE, elle définit le potentiel et les implications de son éthique de la recherche et elle décrit certains parmi les principaux concepts, théories et méthodes foucauldiens mobilisables au sein de l'UPE de l'eau. Du côté empirique, elle applique l'approche proposée à une série d'études de cas, permettant de dresser la géo-histoire mentionnée plus haut mais aussi de nuancer le cadre théorique et méthodologique, de l'enrichir et d'en pointer les limites. A travers l'étude d'archives de la presse locale, les trois premières études de cas montrent que deux formes de gouvernementalité ont coexisté en Suisse pendant la période étudiée, à savoir le biopouvoir et la gouvernementalité néolibérale. Cependant, ces deux formes de gouvernementalité dévient considérablement des modèles proposés par Michel Foucault. Par exemple, des technologies de pouvoir permettant le gouvernement à distance relatives à la santé de la population ont fait leur apparition dès la deuxième moitié du dix-neuvième siècle, ce qui interroge la définition du biopouvoir telle qu'elle avait initialement été proposée par Michel Foucault. La dernière étude de cas est centrée sur l'époque contemporaine. Elle indique qu'à l'heure actuelle une production centralisée d'argumentaires destinés aux citoyens-consommateurs a lieu dans des espaces non-statutaires d'inspiration néolibérale (les soft spaces). Cette production discursive centralisée se révèle efficace et contribue, paradoxalement, au maintien d'un modèle helvétique décentralisé et démocratique en matière d'eau du robinet. Des recherches ultérieures pourraient permettre de tester la pertinence de l'approche foucauldienne adoptée ici dans d'autres cas d'étude, de nuancer et enrichir ultérieurement le cadre théorique et d'améliorer la méthode utilisée.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les programmes scolaires accordent aujourd'hui une place importante à l'argumentation, comme objet d'apprentissage mais aussi comme démarche critique, propice au développement d'une posture citoyenne. Cet intérêt est légitime au vu des recherches récentes en éducation. L'observation des pratiques en classe montre toutefois que l'argumentation est une activité complexe, qui nécessite la coordination d'habiletés cognitives et relationnelles, et sensible aux contextes dans lesquels elle se déploie. Réunissant des contributions de chercheurs de renommée internationale et présentant différents dispositifs pédagogiques, cet ouvrage offre une réflexion sur le lien entre argumentation, apprentissage, contexte et savoirs sur lesquels porte l'argumentation. C'est la conjonction de ces quatre aspects qui fait son originalité et en signe la dimension pluridisciplinaire, à l'intersection de la psychologie, des sciences de l'éducation, des sciences du langage et de la didactique. Ce livre constitue une ressource pour toute personne intéressée par les bases théoriques de l'intégration de l'argumentation en classe, par ses effets sur l'apprentissage, et par les outils d'analyse de l'argumentation en contextes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este artículo se pretende mostrar cómo la utilización de métodos visuales en la investigación contribuye a potenciar la participación activa de las personas con TMG. Se utiliza como ejemplo un estudio de caso de corte cualitativo que incorpora tres actividades de componente visual (el dibujo “el río de la vida”, las fotografías y el dibujo de proyección de futuro) para favorecer la reflexión narrada que, sobre sus experiencias y vivencias, desarrollan cinco personas con TMG. El uso de las fotografías y dibujos en este estudio permite afirmar que estas estrategias se han mostrado válidas para acceder, en la medida que los participantes han querido, a esferas de vida personales en trayectorias vitales determinadas por la enfermedad mental

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Considerando que o regime de queima é um dos principais fatores que alteram a estrutura e composição de espécies de uma comunidade vegetal, este trabalho teve como objetivo analisar o efeito do fogo na composição florística e estrutura da vegetação lenhosa de Cerrado sentido restrito no Parque Estadual da Serra de Caldas Novas (PESCAN), Goiás, submetida a diferentes regimes de queima. Foram utilizadas duas áreas de Cerrado sentido restrito: uma delas submetida ao fogo em 2002 e 2006 e outra sem a passagem do fogo nessas duas épocas. Em cada área foram estabelecidas 25 parcelas de 20 x 20 m, sendo incluídas no estudo todas as árvores (C30>15 cm). As duas áreas estudadas apresentaram composição florística similar, evidenciada pelo Coeficiente de Sorensen, o qual encontrou 84% de similaridade na composição florística entre as áreas. Entretanto, a estrutura da vegetação apresentou diferenças relevantes, evidenciada pelo Indice de Similaridade de Bray Curtis, o qual obteve valor de 0,67, que foi refletido por mudanças na estrutura das comunidades estudadas. A área queimada apresentou menor número de indivíduos, de espécies, menor valor de área basal e, por conseguinte, do Índice de Diversidade de Shannon (H') e Equabilidade (J'). Nesse sentido, provavelmente a frequência das queimadas ocorridas na área não foram suficientes para evidenciar o efeito do fogo no processo de alteração na composição das espécies lenhosas. Entretanto, o fogo exerceu papel relevante na modificação da estrutura da vegetação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Bacia do Alto do Descoberto é importante fonte de água para o Distrito Federal. Essa bacia tem apresentado ao longo dos anos expansão agrícola e urbana em detrimento das áreas de vegetação natural. A ocupação inadequada, assim como a falta de planejamento do uso e ocupação do solo, pode levar a alterações do escoamento superficial e, consequentemente, do ciclo hidrológico, a feições erosivas, à contaminação dos mananciais superficiais e subterrâneos e ao desequilíbrio do ecossistema da região. Portanto, o monitoramento e a análise do uso e ocupação do solo são imprescindíveis na prevenção desses impactos e na manutenção dos mananciais. Dessa forma, este estudo tem como objetivo o mapeamento e a análise comparativa do uso e ocupação do solo da Bacia do Alto do Descoberto entre os anos 1994 e 2011. As classificações de uso e ocupação do solo foram elaboradas utilizando um classificador orientado ao objeto baseado em regras e lógica nebulosa, permitindo uma análise dos avanços do uso do solo e a perda da cobertura vegetal da bacia. O sistema de classificação utilizado foi considerado bem-sucedido, com índice de exatidão temática (Kappa) de 0,64. Apesar de ainda haver algumas confusões temáticas no processo de classificação, as análises comparativas entre as classes temáticas dos mapas dos referidos anos evidenciaram a forte expansão agrícola da região em aproximadamente 11% da área da bacia, bem como uma perda de vegetação natural.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A precipitação pluvial constitui-se na principal variável hidrológica de entrada do ciclo hidrológico e para conhecimento da variabilidade espacial e temporal como informação básica para estudos hidrológicos, manejo de bacias hidrográficas, gestão de recursos hídricos, dentre outros. Os recursos hídricos superficiais produzidos nessa bacia são essenciais ao desenvolvimento do eixo Goiânia-Anápolis-Brasília e, recentemente, com o aumento da demanda hídrica, tem sido relatados conflitos pelo uso da água. Dessa maneira, tem-se que o desenvolvimento de estudos hidrológicos visando ao melhor entendimento e aproveitamento dos recursos hídricos é estratégico para o desenvolvimento da região. Nesse sentido, objetivou-se com este estudo mapear a precipitação média mensal e anual na bacia hidrográfica do Ribeirão João Leite, com o auxílio de técnicas geoestatísticas. Foram avaliados os modelos de semivariograma esférico, exponencial e gaussiano, ajustados pelo método dos mínimos quadrados ponderados, sendo que o modelo utilizado no mapeamento por krigagem foi o que apresentou o menor erro médio indicado pela validação cruzada. Foi constatado bom desempenho das técnicas geoestatísticas no mapeamento da precipitação média mensal e anual, indicado pelos pequenos erros encontrados, podendo-se destacar o modelo de semivariograma exponencial, que se sobressaiu na maioria dos eventos estudados.