896 resultados para voip , dispositivi mobili , portabilità , user-friendly
Resumo:
A evolução observada nas redes de comunicações durante a última década traduziu-se na diversificação de serviços que utilizam a rede, no aumento das taxas de transferência e na massificação da utilização de serviços de acesso à Internet e de comunicações celulares. Durante esta década, várias organizações, das quais se destacam os operadores de telecomunicações, têm dedicado consideráveis esforços no sentido de definir e normalizar arquitecturas de redes de próxima geração. A principal característica deste tipo de rede reside no facto de possuir uma arquitectura modular capaz de fornecer serviços multimédia a clientes de uma rede de acesso com características tecnológicas heterogéneas. Os trabalhos de normalização das arquitecturas de rede NGN têm-se limitado, até ao momento, a especificar detalhes relativos ao funcionamento da rede não tendo ainda sido definida a arquitectura de gestão. Em termos de tecnologias de gestão de redes, foram propostos nas últimas duas décadas novos paradigmas de gestão, novos modelos de dados, novos protocolos de transporte e várias linguagens de definição de informação de gestão. Os modelos de dados têm vindo a ser enriquecidos, os protocolos são mais flexíveis e poderosos, as soluções de gestão oferecem interoperabilidade acrescida e as linguagens permitem definir formatos de configuração mais ricos. Simultaneamente tem crescido a complexidade das soluções de gestão, aumentado a sobrecarga causada pelo aumento de complexidade nos equipamentos bem como nas plataformas computacionais que suportam os sistemas de gestão. O presente trabalho propõe uma solução de gestão para redes NGN capaz de gerir os recursos de rede garantindo Qualidade de Serviço. A solução de gestão proposta inclui uma plataforma de execução de políticas que utiliza os eventos ocorridos na rede para empreender acções de configuração, autonomizando o processo de gestão. Inclui uma avaliação da complexidade de várias tecnologias de gestão estudando a sobrecarga causada pela tecnologia tanto no processo de gestão como na operação da rede. É ainda estudada a escalabilidade das várias tecnologias e analisado o seu comportamento num cenário da rede de um operador de telecomunicações. O trabalho propõe ainda uma metodologia de configuração integrada dos elementos de gestão, através de uma interface de configuração amigável para o administrador do sistema.
Resumo:
As propriedades funcionais dos materiais ferroeléctricos tais como a polarização reversível, piroelectricidade, piezoelectricidade, elevada actividade óptica não linear e comportamento dieléctrico não linear são fundamentais para a sua aplicação em sensores, microactuadores, detectores de infravermelhos, filtros de fase de microondas e memórias não-voláteis. Nos últimos anos, motivado pelas necessidades industriais de redução do tamanho dos dispositivos microelectrónicos, aumentando a eficiência volumétrica, tem sido feito um grande esforço ao nível da investigação para desenvolver estruturas ferroeléctricas à escala micro- e nano- métrica. É sabido que a redução de tamanho em materiais ferroeléctricos afecta significamente as suas propriedades. Neste sentido e considerando que foi previsto teoreticamente por cálculos ab initio que estruturas do tipo nanocilindros e nanodiscos apresentariam um novo tipo de ordem ferroeléctrica e, na expectativa de alcançar conhecimento para o desenvolvimento de uma nova geração de dispositivos microelectróncos, existe um grande interesse em desenvolver métodos de fabrico de nanoestruturas ferroeléctricas unidimensionais (1D) tais como nanocilindros e nanotubos. As estratégias de fabrico de nanoestruturas 1D até agora descritas na literatura indicam claramente as dificuldades inerentes à sua preparação. Existem duas grandes vias de síntese destas nanoestruturas: i) o método “topdown” que consiste na redução de tamanho de um dado material até à obtenção duma estrutura 1D; e ii) o método “bottom-up” em que átomos, iões e moléculas são agrupados para formar um material 1D. O método “top down” envolve em geral técnicas de desgaste, como o uso do feixe de electrões, que apesar de permitirem elevada precisão no posicionamento e no controlo do tamanho, falham em termos de resolução, exigem muito tempo e causam facilmente defeitos que deterioram as propriedades físicas destes materiais. Na metodologia “bottom up” a utilização de moléculas ou estruturas “molde” tem sido a mais explorada. As estructuras 1D podem também ser preparadas sem recorrer a “moldes”. Neste caso a agregação orientada é promovida pelo recurso a aditivos que controlam o crescimento dos cristais em direcções preferenciais. Neste contexto, neste trabalho utilizaram-se duas estratégias “bottom up” de baixo custo para a preparação de nanopartículas de titanato de bário (BaTiO3) com morfologia controlada: 1) síntese química (em solução e em fase vapor) com utilização de nanotubos de titanato TiNTs) como “moldes” e precursores de titânio 2) síntese química em solução com presença de aditivos. Os nanotubos de titanato de sódio foram preparados por síntese hidrotermal. Como existiam muitas dúvidas acerca da natureza estrutural e do mecanismo de formação dos NTs, a parte inicial do trabalho foi dedicada à realização de um estudo sistemático dos parâmetros intervenientes na síntese e à caracterização da sua estrutura e microestrutura. Foi demonstrado que os NTs têm a fórmula geral A2Ti2O5 (A = H+ or Na+), e não TiO2 (anátase) com defendido por vários autores na literatura, e podem ser preparados por método hidrotermal em meio fortemente alcalino usando como fonte de titânio TiO2 comercial na forma de anátase ou rútilo. A menor reactividade do rútilo exige temperaturas de síntese superiores ou tempos de reacção mais longos. A forma tubular resulta do tratamento hidrotermal e não de processos de lavagem e neutralização subsequentes. Se os NTs forem tratados após a síntese hidrotérmica em água a 200 ºC, transformam-se em nanocilindros. Uma das partes principais desta tese consistiu na investigação do papel dos NTs de titanato no crescimento anisotrópico de BaTiO3. O potencial funcionamento dos NTs como “moldes” para além de precursores foi testado em reacção com hidróxido de bário em síntese em solução e por reacção com um precursor orgânico de bário em fase vapor. Tendo por base os estudos cinéticos realizados, bem como as alterações estruturais e morfológicas das amostras, é possível concluir que a formação do BaTiO3 a partir de NTs de titanato de sódio, ocorre por dois mecanismos dependendo da temperatura e tempo de reacção. Assim, a baixa temperatura e curto tempo de reacção verifica-se que se formam partículas dendríticas de BaTiO3 cuja superfície é bastante irregular (“wild”) e que apresentam estrutura pseudo-cúbica. Estas partículas formam-se por reacção topotáctica na fronteira dos nanotubos de titanato de sódio. A temperaturas mais altas e/ou reacções mais longas, a reacção é controlada por um mecanismo de dissolução e precipitação com formação de dendrites de BaTiO3 tetragonais com superfície mais regular (“seaweed”). A microscopia de força piezoeléctrica mostrou que as dendrites “seaweeds“ possuem actividade piezoeléctrica superior à das dendrites “wild”, o que confirma o papel desempenhado pela estrutura e pela concentração de defeitos na rede na coerência e ordem ferroeléctrica de nanoestruturas. Os nossos resultados confirmam que os NTs de titanato não actuam facilmente como “moldes” na síntese em solução de BaTiO3 já que a velocidade de dissolução dos NTs em condições alcalinas é superior à velocidade de formação do BaTiO3. Assumindo que a velocidade de reacção dos NTs com o precursor de bário é superior em fase vapor, efectuou-se a deposição de um precursor orgânico de bário por deposição química de vapor sobre um filme de NTs de titnato de sódio depositados por deposição electroforética. Estudou-se a estabilidade dos NTs nas diferentes condições do reactor. Quando os NTs são tratados a temperaturas superiores a 700 ºC, ocorre a transformação dos NTs em nanocilindros de anatase por um mecanismo de agregação orientada. Quando se faz a deposição do precursor de bário, seguida de calcinação a 700 ºC em atmosfera oxidante de O2, verifica-se que a superficie dos NTs fica coberta com nanocristais de BaTiO3 independentemente da concentração de bário. O papel dos NTs de titanato no crescimento anisotrópico de BaTiO3 em fase vapor é assim descrito pela primeira vez. Em relação à metodologias de crescimento de partículas na ausência de “moldes” mas com aditivos fez-se um estudo sistemático utilizando 5 aditivos de natureza differente. As diferenças entre aditivos foram sistematizadas tendo em conta as diferenças estruturais e morfológicas verificadas. Está provado que os aditivos podem funcionar como modificadores de crescimento cristalino por alteração do seu padrão de crescimento ou por alteração da cinética de crescimento das faces cristalográficas do cristal. Entre os aditivos testados verificou-se que o ácido poliacrilíco adsorve em faces específicas do BaTiO3 alterando a cinética de crescimento e induzindo a agregação orientada das partículas. O polivinilpirrolidona, o docecilsulfato de sódio e hidroxipropilmetilcelulose actuam mais como inibidores de crescimento do que como modificadores do tipo de crescimento. A D-frutose aumenta a energia de activação da etapa de nucleação não ocorrendo formação de BaTiO3 para as mesmas condições dos outros aditivos. Esta tese clarifica o papel dos NTs de titanato de sódio enquanto precursores e “moldes” no crescimento anisotrópico de BaTiO3 em solução e em fase vapor. É feita também a abordagem do controlo morfológico do BaTiO3 através do uso de aditivos. As estratégias de preparação de BaTiO3 propostas são de baixo custo, reprodutíveis e fáceis de efectuar. Os resultados contribuem para uma melhor compreensão da relação tamanho – morfologia – propriedade em materiais ferroeléctricos nanométricos com vista à sua potencial aplicação.
Resumo:
Considerando que, na sociedade atual, o conhecimento flui incessantemente, renovando-se a cada momento, o cidadão do séc. XXI confronta-se com novos desafios que exigem o desenvolvimento de novas competências. Os recursos da web social – como os fóruns de discussão online –, gratuitos e fáceis de utilizar, permitem que os indivíduos acedam à informação, construam conhecimento, partilhem interesses e desenvolvam múltiplas competências em colaboração. Face a esta realidade, as instituições de Ensino Superior têm vindo a reconhecer que os estudantes já não se sentem confortáveis com abordagens de ensino tradicionais, em que impera a transmissão de informação, preferindo envolver-se em experiências de aprendizagem em que possam interagir com a tecnologia, pelas potencialidades que já lhe reconhecem. Procurando ir ao encontro das exigências da sociedade e do mundo do trabalho atuais, o Processo de Bolonha veio renovar os cursos de Ensino Superior, centrando-os no estudante e no desenvolvimento da autonomia e da colaboração, entre outras competências. Esta tendência vai ao encontro da reconhecida valorização da colaboração com vista à melhoria do desempenho de um grupo profissional. Também no contexto educacional se reconhece o seu contributo para o desenvolvimento profissional do professor e a operacionalização de um ensino por competências. Compete à formação de professores lançar as bases deste movimento.A formação inicial de professores do 1º Ciclo do Ensino Básico tem, entre outras preocupações, a de levar o futuro professor a refletir sobre princípios didáticos que informem a conceção, implementação e avaliação de estratégias e atividades que contribuam para o desenvolvimento de competências nos alunos. Entre as competências a desenvolver nas crianças a frequentar este nível de escolaridade, no que concerne à aprendizagem da língua materna, figura a competência ortográfica, indispensável a uma boa comunicação escrita. Quanto mais cedo for automatizada, mais possibilidades o aluno terá de se ocupar prioritariamente de outros aspetos mais complexos e exigentes do processo de escrita. Tendo em vista estas preocupações, desenvolvemos um estudo, com futuros professores do 1º Ciclo do Ensino Básico a frequentar um mestrado profissionalizante da Universidade de Aveiro, cujos objetivos de investigação eram os seguintes: i) descrever as suas representações sobre colaboração; ii) compreender a influência dessas representações na adoção de práticas colaborativas num fórum de discussão online; iii) compreender o contributo da colaboração adotada num fórum de discussão online para a construção de conhecimento didático sobre a abordagem da ortografia; iv) compreender o contributo desse conhecimento para a conceção de instrumentos didáticos sobre a abordagem da ortografia. Numa primeira fase, o estudo desenvolveu-se com dois grupos de alunos, que nele participaram em dois anos letivos distintos (2009/2010 e 2010/2011), no contexto da unidade curricular de Didática da Língua Portuguesa (inserida no plano de estudos do 1º semestre do 1º ano do Mestrado em Educação Pré- Escolar e Ensino no 1º Ciclo do Ensino Básico da Universidade de Aveiro). Numa segunda fase (entre o 2º semestre do ano letivo de 2011/2012 e 1º semestre do ano letivo de 2012/2013), recolheu-se o resultado de uma intervenção didática desenvolvida por uma professora estagiária (participante na primeira fase do estudo), no âmbito da Prática Pedagógica Supervisionada, apoiada pelo Seminário de Investigação Educacional. Tratando-se de um estudo de caso, a investigação envolveu a recolha de dados através de inquérito por questionário disponibilizado online, uma reflexão individual apresentada por escrito, posts e documentos publicados num fórum de discussão online e instrumentos didáticos (planificação de aulas e relatório de estágio) elaborados pelos estudantes. Procedeu-se a uma análise de conteúdo fundamentada nos quadros teóricos e no estudo empírico.Os resultados vêm aprofundar a discussão em torno da utilização de ferramentas da web social no Ensino Superior, nomeadamente na formação inicial de professores, para desenvolver a colaboração, visando a construção de conhecimento didático, particularmente sobre a abordagem da ortografia. Por um lado, apontam para a influência de representações sobre colaboração na adoção dessa modalidade de trabalho num fórum de discussão online. Por outro, revelam a influência dessa modalidade no conhecimento didático coconstruído e apontam para uma valorização do mesmo por parte dos participantes no estudo, no momento de conceber, implementar e avaliar instrumentos didáticos. Daqui emergiram algumas sugestões pedagógico-didáticas com vista à promoção de práticas inovadoras no Ensino Superior, com recurso a ferramentas da web social, centradas na aprendizagem dos estudantes e no desenvolvimento da colaboração, particularmente na formação inicial de professores.
Resumo:
The goal of the project "SmartVision: active vision for the blind" is to develop a small and portable but intelligent and reliable system for assisting the blind and visually impaired while navigating autonomously, both outdoor and indoor. In this paper we present an overview of the prototype, design issues, and its different modules which integrate a GIS with GPS, Wi-Fi, RFID tags and computer vision. The prototype addresses global navigation by following known landmarks, local navigation with path tracking and obstacle avoidance, and object recognition. The system does not replace the white cane, but extends it beyond its reach. The user-friendly interface consists of a 4-button hand-held box, a vibration actuator in the handle of the cane, and speech synthesis. A future version may also employ active RFID tags for marking navigation landmarks, and speech recognition may complement speech synthesis.
Resumo:
Relatório da Prática de Ensino Supervisionada, Mestrado em Ensino de Informática, Universidade de Lisboa, 2014
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica
Resumo:
Trabalho de projeto apresentado à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
Therapeutic drug monitoring (TDM) aims to optimize treatments by individualizing dosage regimens based on the measurement of blood concentrations. Dosage individualization to maintain concentrations within a target range requires pharmacokinetic and clinical capabilities. Bayesian calculations currently represent the gold standard TDM approach but require computation assistance. In recent decades computer programs have been developed to assist clinicians in this assignment. The aim of this survey was to assess and compare computer tools designed to support TDM clinical activities. The literature and the Internet were searched to identify software. All programs were tested on personal computers. Each program was scored against a standardized grid covering pharmacokinetic relevance, user friendliness, computing aspects, interfacing and storage. A weighting factor was applied to each criterion of the grid to account for its relative importance. To assess the robustness of the software, six representative clinical vignettes were processed through each of them. Altogether, 12 software tools were identified, tested and ranked, representing a comprehensive review of the available software. Numbers of drugs handled by the software vary widely (from two to 180), and eight programs offer users the possibility of adding new drug models based on population pharmacokinetic analyses. Bayesian computation to predict dosage adaptation from blood concentration (a posteriori adjustment) is performed by ten tools, while nine are also able to propose a priori dosage regimens, based only on individual patient covariates such as age, sex and bodyweight. Among those applying Bayesian calculation, MM-USC*PACK© uses the non-parametric approach. The top two programs emerging from this benchmark were MwPharm© and TCIWorks. Most other programs evaluated had good potential while being less sophisticated or less user friendly. Programs vary in complexity and might not fit all healthcare settings. Each software tool must therefore be regarded with respect to the individual needs of hospitals or clinicians. Programs should be easy and fast for routine activities, including for non-experienced users. Computer-assisted TDM is gaining growing interest and should further improve, especially in terms of information system interfacing, user friendliness, data storage capability and report generation.
Resumo:
This work presents new, efficient Markov chain Monte Carlo (MCMC) simulation methods for statistical analysis in various modelling applications. When using MCMC methods, the model is simulated repeatedly to explore the probability distribution describing the uncertainties in model parameters and predictions. In adaptive MCMC methods based on the Metropolis-Hastings algorithm, the proposal distribution needed by the algorithm learns from the target distribution as the simulation proceeds. Adaptive MCMC methods have been subject of intensive research lately, as they open a way for essentially easier use of the methodology. The lack of user-friendly computer programs has been a main obstacle for wider acceptance of the methods. This work provides two new adaptive MCMC methods: DRAM and AARJ. The DRAM method has been built especially to work in high dimensional and non-linear problems. The AARJ method is an extension to DRAM for model selection problems, where the mathematical formulation of the model is uncertain and we want simultaneously to fit several different models to the same observations. The methods were developed while keeping in mind the needs of modelling applications typical in environmental sciences. The development work has been pursued while working with several application projects. The applications presented in this work are: a winter time oxygen concentration model for Lake Tuusulanjärvi and adaptive control of the aerator; a nutrition model for Lake Pyhäjärvi and lake management planning; validation of the algorithms of the GOMOS ozone remote sensing instrument on board the Envisat satellite of European Space Agency and the study of the effects of aerosol model selection on the GOMOS algorithm.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
La scoliose idiopathique (SI) est une déformation tridimensionnelle (3D) de la colonne vertébrale et de la cage thoracique à potentiel évolutif pendant la croissance. Cette déformation 3D entraîne des asymétries de la posture. La correction de la posture est un des objectifs du traitement en physiothérapie chez les jeunes atteints d’une SI afin d’éviter la progression de la scoliose, de réduire les déformations morphologiques et leurs impacts sur la qualité de vie. Les outils cliniques actuels ne permettent pas de quantifier globalement les changements de la posture attribuables à la progression de la scoliose ou à l’efficacité des interventions thérapeutiques. L’objectif de cette thèse consiste donc au développement et à la validation d’un nouvel outil clinique permettant l’analyse quantitative de la posture auprès de personnes atteintes d’une SI. Ce projet vise plus spécifiquement à déterminer la fidélité et la validité des indices de posture (IP) de ce nouvel outil clinique et à vérifier leur capacité à détecter des changements entre les positions debout et assise. Suite à une recension de la littérature, 34 IP représentant l’alignement frontal et sagittal des différents segments corporels ont été sélectionnés. L’outil quantitatif clinique d’évaluation de la posture (outil 2D) construit dans ce projet consiste en un logiciel qui permet de calculer les différents IP (mesures angulaires et linéaires). L’interface graphique de cet outil est conviviale et permet de sélectionner interactivement des marqueurs sur les photographies digitales. Afin de vérifier la fidélité et la validité des IP de cet outil, la posture debout de 70 participants âgés entre 10 et 20 ans atteints d'une SI (angle de Cobb: 15º à 60º) a été évaluée à deux occasions par deux physiothérapeutes. Des marqueurs placés sur plusieurs repères anatomiques, ainsi que des points de référence anatomique (yeux, lobes des oreilles, etc.), ont permis de mesurer les IP 2D en utilisant des photographies. Ces mêmes marqueurs et points de référence ont également servi au calcul d’IP 3D obtenus par des reconstructions du tronc avec un système de topographie de surface. Les angles de Cobb frontaux et sagittaux et le déjettement C7-S1 ont été mesurés sur des radiographies. La théorie de la généralisabilité a été utilisée pour déterminer la fidélité et l’erreur standard de la mesure (ESM) des IP de l’outil 2D. Des coefficients de Pearson ont servi à déterminer la validité concomitante des IP du tronc de l’outil 2D avec les IP 3D et les mesures radiographiques correspondantes. Cinquante participants ont été également évalués en position assise « membres inférieurs allongés » pour l’étude comparative de la posture debout et assise. Des tests de t pour échantillons appariés ont été utilisés pour détecter les différences entre les positions debout et assise. Nos résultats indiquent un bon niveau de fidélité pour la majorité des IP de l’outil 2D. La corrélation entre les IP 2D et 3D est bonne pour les épaules, les omoplates, le déjettement C7-S1, les angles de taille, la scoliose thoracique et le bassin. Elle est faible à modérée pour la cyphose thoracique, la lordose lombaire et la scoliose thoraco-lombaire ou lombaire. La corrélation entre les IP 2D et les mesures radiographiques est bonne pour le déjettement C7-S1, la scoliose et la cyphose thoracique. L’outil est suffisamment discriminant pour détecter des différences entre la posture debout et assise pour dix des treize IP. Certaines recommandations spécifiques résultents de ce projet : la hauteur de la caméra devrait être ajustée en fonction de la taille des personnes; la formation des juges est importante pour maximiser la précision de la pose des marqueurs; et des marqueurs montés sur des tiges devraient faciliter l’évaluation des courbures vertébrales sagittales. En conclusion, l’outil développé dans le cadre de cette thèse possède de bonnes propriétés psychométriques et permet une évaluation globale de la posture. Cet outil devrait contribuer à l’amélioration de la pratique clinique en facilitant l’analyse de la posture debout et assise. Cet outil s’avère une alternative clinique pour suivre l’évolution de la scoliose thoracique et diminuer la fréquence des radiographies au cours du suivi de jeunes atteints d’une SI thoracique. Cet outil pourrait aussi être utile pour vérifier l’efficacité des interventions thérapeutiques sur la posture.
Resumo:
Introduction : Les pressions sont fortes envers les professionnels de la santé pour qu’ils appliquent une pratique factuelle. Toutefois, un écart important demeure entre les résultats des recherches et la réalité clinique. Par son aspect interactif, le Web 2.0 peut contribuer à l’application des données probantes en facilitant l’accès et l’échange de connaissances. Objectif : Ce projet de recherche s’inscrit dans une étude visant à élaborer une plateforme informatisée pour les professionnels travaillant avec la clientèle ayant subi un accident vasculaire cérébral (AVC). L’objectif de la présente étude est de décrire la perception des professionnels de la santé face à l’introduction du Web 2.0 dans leur pratique. Méthode : Un devis de recherche qualitatif avec une approche phénoménologique a été utilisé. Des entrevues individuelles semi-structurées ont été menées auprès de 24 professionnels et gestionnaires. Résultats : Les personnes interviewées étaient toutes des femmes avec un âge moyen de 45 ans (± 18). Le transfert des connaissances est l’utilité du Web 2.0 qui émerge des participants comme étant la plus importante. Les répondants ont également exprimé avoir besoin d'une plateforme conviviale. Les résultats soulignent également un paradoxe lié au temps. En effet, les répondants estiment que le Web 2.0 pourrait leur permettre de sauver du temps, cependant ils affirment qu'ils n'auront pas le temps de l'utiliser. Conclusion : Bien que le Web 2.0 demeure un outil de transfert de connaissances peu intégré dans la pratique, les professionnels travaillant avec la clientèle AVC perçoivent généralement positivement son introduction dans leur pratique.
Resumo:
Les changements technologiques ont des effets structurants sur l’organisation des soins dans notre système de santé. Les professionnels de la santé et les patients – les principaux utilisateurs des innovations médicales – sont des acteurs clés dans les trajectoires suivies par les nouvelles technologies en santé. Pour développer des technologies médicales plus efficaces, sécuritaires et conviviales, plusieurs proposent d’intensifier la collaboration entre les utilisateurs et les développeurs. Cette recherche s’intéresse à cette prémisse sur la participation des utilisateurs dans les processus d’innovation médicale. L'objectif général de cette recherche est de mieux comprendre la collaboration entre les utilisateurs et les développeurs impliqués dans la transformation des innovations médicales. Adoptant un cadre d’analyse sociotechnique, cette thèse par articles s’articule autour de trois objectifs : 1) décrire comment la littérature scientifique définit les objectifs, les méthodes et les enjeux de l’engagement des utilisateurs dans le développement des innovations médicales; 2) analyser les perspectives d’utilisateurs et de développeurs de technologies médicales quant à leur collaboration dans le processus d’innovation; et 3) analyser comment sont mobilisés, en pratique, des utilisateurs dans le développement d’une innovation médicale. Le premier objectif s’appuie sur une synthèse structurée des écrits scientifiques (n=101) portant sur le phénomène de la participation des utilisateurs dans les processus d’innovation médicale. Cette synthèse a dégagé les méthodes appliquées ou proposées pour faire participer les utilisateurs, les arguments normatifs véhiculés ainsi que les principaux enjeux soulevés. Le deuxième objectif repose sur l’analyse de trois groupes de discussion délibératifs et d'une plénière impliquant des utilisateurs et des développeurs (n=19) de technologies médicales. L’analyse a permis d’examiner leurs perspectives à l'égard de diverses approches de collaboration dans les processus d'innovation. Le troisième objectif implique l’étude d’une innovation en électrophysiologie lors de la phase de recherche clinique. Cette étude de cas unique s'appuie sur une analyse qualitative d'études cliniques (n=57) et des éditoriaux et synthèses de connaissances dans des revues médicales spécialisées (n=15) couvrant une période de dix ans (1999 à 2008) ainsi que des entrevues semi-dirigées avec des acteurs clés impliqués dans le processus d’innovation (n=3). Cette étude a permis de mieux comprendre comment des utilisateurs donne un sens, s’approprient et légitiment une innovation médicale en contexte de recherche clinique. La contribution générale de cette thèse consiste en une meilleure compréhension de l’apport des utilisateurs dans les processus d’innovation médicale et de sa capacité à aligner plus efficacement le développement technologique avec les objectifs du système de santé.
Resumo:
La présente thèse, organisée en trois volets, poursuivait trois objectifs : i) Estimer les coûts médicaux directs du traitement du DT2 dans 4 pays d’Afrique subsaharienne et dans le cas du Mali, rapprocher ces coûts médicaux directs estimés aux dépenses effectives des patients diabétiques ; ii) Examiner le coût-efficacité des interventions de prévention basées sur la modification du mode de vie chez les sujets à haut risque du DT2; iii) Cerner la perception et les attitudes des acteurs de la santé sur les outils de plaidoyer développés dans le cadre du projet DFN et leur potentiel d’impact sur les décideurs. Dans le premier volet, il s’est agi d’estimer les coûts du DT2 et de ses complications au moyen d’un calculateur et de le mettre à l’épreuve au Bénin, au Burkina- Faso, en Guinée et au Mali. Les composantes de soins pour le DT2 et ses complications avaient été définies au préalable par une équipe de spécialistes, sur la base de leur expérience clinique et des lignes directrices existantes. Les prix ont été relevés dans deux structures hospitalières du secteur public et deux du privé. Les coûts ont été estimés sur une base annuelle pour le DT2 avec ou sans complications chroniques puis par épisode pour les complications aiguës. Dans le cas du Mali, ces coûts ont été rapprochés des dépenses de patients diabétiques d’après une précédente enquête transversale dans ce pays. Cette enquête portait sur 500 sujets diabétiques sélectionnés au hasard dans les registres. Les dépenses pour les soins des trois derniers mois avaient été relevées. Les déterminants des dépenses ont été explorés. Il ressort des différences de coûts dans le même secteur puis entre le secteur privé et le secteur public. Le coût minimum du traitement du DT2 sans complications dans le secteur public représentait entre 21% et 34% de PIB par habitant, puis entre 26% - 47% en présence de la rétinopathie et au-delà de 70% pour la néphropathie, la complication chronique la plus coûteuse. Les dépenses des sujets diabétiques enquêtés au Mali, étaient en deçà des coûts minima estimatifs des différentes complications excepté la rétinopathie et le DT2 sans complication. Les facteurs comme l’insulinothérapie, le nombre de complications et la résidence dans la capitale étaient significativement associés aux dépenses plus élevées des patients. Dans le second volet, la revue systématique a consisté à recenser les études d’évaluation économique des interventions de prévention du DT2 dans des groupes à haut risque par l’alimentation et/ou l’activité physique. Les interventions de contrôle de l’obésité comme facteur de risque majeur de DT2 ont également été considérées. Les études ont été sélectionnées dans les bases de données scientifiques en utilisant les mots clés et des critères prédéfinis. Les études originales publiées entre janvier 2009 et décembre 2014 et conduites en français, anglais ou espagnol étaient potentiellement éligibles. La liste de contrôle de « British Medical Journal » a servi à évaluer la qualité des études. Des 21 études retenues, 15 rapportaient que les interventions étaient coût-efficaces suivant les limites d’acceptabilité considérées. Six études étaient non concluantes, dont quatre destinées à la prévention du DT2 et deux, au contrôle de l’obésité. Dans le troisième volet, les perceptions d’utilisateurs potentiels de ce calculateur et d’un autre outil de plaidoyer, à savoir, l’argumentaire narratif expliquant la nécessité de se pencher sur la lutte contre le DT2 en Afrique, ont été évaluées dans une étude qualitative exploratoire. Les données ont été collectées au cours d’entretiens individuels avec 16 acteurs de la santé de quatre pays d’Afrique subsaharienne et un groupe de discussion avec 10 étudiants de master de nutrition à l’issue d’un atelier de formation sur le plaidoyer faisant appel à ces outils, au Bénin. Les entretiens ont été enregistrés, transcrits et codés à l’aide du logiciel QDA Miner. Les participants ont souligné la pertinence des outils pour le plaidoyer et la convivialité du calculateur de coûts. Il demeure cependant que le contexte politique marqué par la compétition des priorités, l’absence de cohésion entre les décideurs et un défaut de données notamment sur le coût-efficacité des interventions sont des freins à la priorisation du DT2 dans les politiques de santé en Afrique subsaharienne que les répondants ont relevés. L’étude confirme que le traitement du DT2 est financièrement inabordable pour un grand nombre de patients. Elle souligne que les dépenses des patients sont en deçà des coûts estimés pour un traitement approprié avec quelques exceptions. La prévention du DT2 basée le mode de vie est coût-efficace mais devrait être étudiée en Afrique. On peut espérer que la pertinence des outils de ce travail telle que relevée par les acteurs de santé se traduise par leur utilisation. Ceci pour susciter des interventions de prévention afin d’infléchir l’évolution du DT2 et son impact économique en Afrique subsaharienne.
Resumo:
In the present study the development of bioreactors for nitrifying water in closed system hatcheries of penaeid and non-penaeid prawns. This work is an attempt in this direction to cater to the needs of aquaculture industry for treatment and remediation of ammonia and nitrate in penaeid and non-penaeid hatcheries, by developing nitrifying bacteria allochthonous to the particular environment under consideration, and immobilizing them on an appropriately designed support materials configured as reactors. Ammonia toxicity is the major limiting factors in penaeid and non-penaeid hatchery systems causing lethal and sublethal effects on larvae depending on the pH values. Pressing need of the aquaculture industry to have a user friendly and economically viable technology for the removal of ammonia, which can be easily integrated to the existing hatchery designs without any major changes or modifications. Only option available now is to have biological filters through which water can be circulated for the oxidation of ammonia to nitrate through nitrite by a group of chemolithotrophs known as nitrifying bacteria. Two types of bioreactors have been designed and developed. The first category named as in situ stringed bed suspended bioreactor(SBSBR) was designed for use in the larval rearing tanks to remove ammonia and nitrite during larval rearing on a continuous basis, and the other to be used for nitrifying freshly collected seawater and spent water named as ex situ packed bed bioreactior(PBBR). On employing the two reactors together , both penaeid and non-penaeid larval rearing systems can be made a closed recirculating system at least for a season. A survey of literature revealed that the in situ stringed bed suspended reactor developed here is unique in its design, fabrication and mode of application.