937 resultados para Chemistry -- Electronic data processing
Resumo:
Trabalho Final de Mestrado elaborado no Laboratório Nacional de Engenharia Civil (LNEC) para a obtenção do grau de Mestre em Engenharia Civil pelo Instituto Superior de Engenharia de Lisboa no âmbito do protocolo de cooperação entre o ISEL e o LNEC
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Educação Artística, na especialização de Teatro na Educação
Resumo:
O Electronic Data Interchange (EDI) oferece um vasto leque de oportunidades para as empresas se tornarem mais competitivas. Não só na ótica dos processos de negócio de bens e serviços, como nas práticas organizacionais e de gestão. A adoção de tecnologias de informação e comunicação do comércio eletrónico B2B, visando o aumento da eficácia e eficiência na troca de documentos de negócio, possibilita a melhoria da colaboração entre agentes económicos de uma cadeia produtiva de bens ou serviços. O comércio eletrónico permitiu uma profunda transformação das práticas comerciais tradicionais, onde o EDI influenciou positivamente na forma de conduzir o negócio. Um conceito atualmente emergente é o de fatura eletrónica, essencial para o desenvolvimento da relação entre entidades (B2B). A desmaterialização da fatura acarreta inúmeros benefícios para as entidades envolvidas, tais como: a redução de custos, a redução do impacto ambiental e o aumento da produtividade e da transparência nos processos de negócio. Esta dissertação pretende abordar em detalhe as temáticas referentes ao EDI e à fatura eletrónica, no que concerne ao conceito, às mensagens, aos standards utilizados, aos benefícios e custos envolvidos, e a toda a sua envolvência ao longo de uma cadeia de abastecimento. Com base nestes conceitos, é apresentado um caso de estudo de sucesso na empresa nacional Sonae®, que pretende abordar todo o programa EDI da empresa. O esforço despendido na implementação do programa e na adoção da fatura eletrónica legal na Sonae® supera em larga escala os objetivos pretendidos, devido aos benefícios inerentes à utilização do EDI. A fatura eletrónica representa não só o conceito de troca de documentos via eletrónica, como também uma nova forma de conduzir os negócios.
Resumo:
O estudo das curvas características de um transístor permite conhecer um conjunto de parâmetros essenciais à sua utilização tanto no domínio da amplificação de sinais como em circuitos de comutação. Deste estudo é possível obter dados em condições que muitas vezes não constam na documentação fornecida pelos fabricantes. O trabalho que aqui se apresenta consiste no desenvolvimento de um sistema que permite de forma simples, eficiente e económica obter as curvas características de um transístor (bipolar de junção, efeito de campo de junção e efeito de campo de metal-óxido semicondutor), podendo ainda ser utilizado como instrumento pedagógico na introdução ao estudo dos dispositivos semicondutores ou no projecto de amplificadores transistorizados. O sistema é constituído por uma unidade de condicionamento de sinal, uma unidade de processamento de dados (hardware) e por um programa informático que permite o processamento gráfico dos dados obtidos, isto é, traçar as curvas características do transístor. O seu princípio de funcionamento consiste na utilização de um conversor Digital-Analógico (DAC) como fonte de tensão variável, alimentando a base (TBJ) ou a porta (JFET e MOSFET) do dispositivo a testar. Um segundo conversor fornece a variação da tensão VCE ou VDS necessária à obtenção de cada uma das curvas. O controlo do processo é garantido por uma unidade de processamento local, baseada num microcontrolador da família 8051, responsável pela leitura dos valores em corrente e em tensão recorrendo a conversores Analógico-Digital (ADC). Depois de processados, os dados são transmitidos através de uma ligação USB para um computador no qual um programa procede à representação gráfica, das curvas características de saída e à determinação de outros parâmetros característicos do dispositivo semicondutor em teste. A utilização de componentes convencionais e a simplicidade construtiva do projecto tornam este sistema económico, de fácil utilização e flexível, pois permite com pequenas alterações
Resumo:
Dissertação de Mestrado, Gestão do Turismo Internacional, 3 de Dezembro de 2015, Universidade dos Açores.
Resumo:
Relatório do Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações
Resumo:
Este texto incide sobre o papel da supervisão pedagógica no contexto da avaliação de desempenho docente (ADD), procurando aprofundar a forma como a dimensão formativa da avaliação foi equacionada e desenvolvida nas escolas. Para tal, foram realizados dois estudos num agrupamento de escolas da periferia de Lisboa, abrangendo professores avaliadores e avaliados do 1º e do 2º/3º ciclos. Os estudos tinham como objetivos gerais: i) conhecer asconceções de avaliadores e avaliados sobre os fundamentos e as práticas de avaliação de desempenho desenvolvidas nos seus contextos profissionais; ii) e definir o papel que avaliadores e avaliados atribuem à supervisão neste processo. Para a recolha de dados usou-se a entrevista semi-diretiva, recorrendo-se à análise de conteúdo para tratamento dos dados. O confronto dos resultados das entrevistas permite concluir que as conceções sobre a avaliação de desempenho dos docentes dos diferentes ciclos são semelhantes, mas o processo de avaliação e de supervisão foi vivido de forma distinta. O papel da supervisão na ADD depende, em larga escala, da competência dos avaliadores como supervisores e como professores e é facilitado pela existência prévia de uma cultura de colaboração entre docentes.
Resumo:
This paper addresses sensor network applications which need to obtain an accurate image of physical phenomena and do so with a high sampling rate in both time and space. We present a fast and scalable approach for obtaining an approximate representation of all sensor readings at high sampling rate for quickly reacting to critical events in a physical environment. This approach is an improvement on previous work in that after the new approach has undergone a startup phase then the new approach can use a very small sampling period.
Resumo:
It has been shown that in reality at least two general scenarios of data structuring are possible: (a) a self-similar (SS) scenario when the measured data form an SS structure and (b) a quasi-periodic (QP) scenario when the repeated (strongly correlated) data form random sequences that are almost periodic with respect to each other. In the second case it becomes possible to describe their behavior and express a part of their randomness quantitatively in terms of the deterministic amplitude–frequency response belonging to the generalized Prony spectrum. This possibility allows us to re-examine the conventional concept of measurements and opens a new way for the description of a wide set of different data. In particular, it concerns different complex systems when the ‘best-fit’ model pretending to be the description of the data measured is absent but the barest necessity of description of these data in terms of the reduced number of quantitative parameters exists. The possibilities of the proposed approach and detection algorithm of the QP processes were demonstrated on actual data: spectroscopic data recorded for pure water and acoustic data for a test hole. The suggested methodology allows revising the accepted classification of different incommensurable and self-affine spatial structures and finding accurate interpretation of the generalized Prony spectroscopy that includes the Fourier spectroscopy as a partial case.
Resumo:
Consider a wireless sensor network (WSN) where a broadcast from a sensor node does not reach all sensor nodes in the network; such networks are often called multihop networks. Sensor nodes take individual sensor readings, however, in many cases, it is relevant to compute aggregated quantities of these readings. In fact, the minimum and maximum of all sensor readings at an instant are often interesting because they indicate abnormal behavior, for example if the maximum temperature is very high then it may be that a fire has broken out. In this context, we propose an algorithm for computing the min or max of sensor readings in a multihop network. This algorithm has the particularly interesting property of having a time complexity that does not depend on the number of sensor nodes; only the network diameter and the range of the value domain of sensor readings matter.
Resumo:
The availability of small inexpensive sensor elements enables the employment of large wired or wireless sensor networks for feeding control systems. Unfortunately, the need to transmit a large number of sensor measurements over a network negatively affects the timing parameters of the control loop. This paper presents a solution to this problem by representing sensor measurements with an approximate representation-an interpolation of sensor measurements as a function of space coordinates. A priority-based medium access control (MAC) protocol is used to select the sensor messages with high information content. Thus, the information from a large number of sensor measurements is conveyed within a few messages. This approach greatly reduces the time for obtaining a snapshot of the environment state and therefore supports the real-time requirements of feedback control loops.
Resumo:
OBJECTIVE To analyze the access and utilization profile of biological medications for psoriasis provided by the judicial system in Brazil.METHODSThis is a cross-sectional study. We interviewed a total of 203 patients with psoriasis who were on biological medications obtained by the judicial system of the State of Sao Paulo, from 2004 to 2010. Sociodemographics, medical, and political-administrative characteristics were complemented with data obtained from dispensation orders that included biological medications to treat psoriasis and the legal actions involved. The data was analyzed using an electronic data base and shown as simple variable frequencies. The prescriptions contained in the lawsuits were analyzed according to legal provisions.RESULTS A total of 190 lawsuits requesting several biological drugs (adalimumab, efalizumab, etanercept, and infliximab) were analyzed. Patients obtained these medications as a result of injunctions (59.5%) or without having ever demanded biological medication from any health institution (86.2%), i.e., public or private health services. They used the prerogative of free legal aid (72.6%), even though they were represented by private lawyers (91.1%) and treated in private facilities (69.5%). Most of the patients used a biological medication for more than 13 months (66.0%), and some patients were undergoing treatment with this medication when interviewed (44.9%). Approximately one third of the patients discontinued treatment due to worsening of their illness (26.6%), adverse drug reactions (20.5%), lack of efficacy, or because the doctor discontinued this medication (13.8%). None of the analyzed medical prescriptions matched the legal prescribing requirements. Clinical monitoring results showed that 70.3% of the patients had not undergone laboratory examinations (blood work, liver and kidney function tests) for treatment control purposes.CONCLUSIONS The plaintiffs resorted to legal action to get access to biological medications because they were either unaware or had difficulty in accessing them through institutional public health system procedures. Access by means of legal action facilitated long-term use of this type of medication through irregular prescriptions and led to a high rate of adverse drug reactions as well as inappropriate clinical monitoring.
Resumo:
Mestrado em Intervenção Sócio-Organizacional na Saúde - Área de especialização: Políticas de Administração e Gestão de Serviços de Saúde
Resumo:
ABSTRACT OBJECTIVE To describe the prevalence of common mental disorders in Brazilian adolescent students, according to geographical macro-regions, school type, sex, and age. METHODS We evaluated 74,589 adolescents who participated in the Cardiovascular Risk Study in Adolescents (ERICA), a cross-sectional, national, school-based study conducted in 2013-2014 in cities with more than 100,000 inhabitants. A self-administered questionnaire and an electronic data collector were employed. The presence of common mental disorders was assessed using the General Health Questionnaire (GHQ-12). We estimated prevalence and 95% confidence intervals of common mental disorders by sex, age, and school type, in Brazil and in the macro-regions, considering the sample design. RESULTS The prevalence of common mental disorders was of 30.0% (95%CI 29.2-30.8), being higher among girls (38.4%; 95%CI 37.1-39.7) when compared to boys (21.6%; 95%CI 20.5-22.8), and among adolescents who were from 15 to 17 years old (33.6%; 95%CI 32.2-35.0) compared to those aged between 12 and 14 years (26.7%; 95%CI 25.8-27.6). The prevalence of common mental disorders increased with age for both sexes, always higher in girls (ranging from 28.1% at 12 years to 44.1% at 17 years) than in boys (ranging from 18.5% at 12 years to 27.7% at 17 years). We did not observe any significant difference by macro-region or school type. Stratified analyses showed higher prevalence of common mental disorders among girls aged from 15 to 17 years of private schools in the North region (53.1; 95%CI 46.8-59.4). CONCLUSIONS The high prevalence of common mental disorders among adolescents and the fact that the symptoms are often vague mean these disorders are not so easily identified by school administrators or even by health services. The results of this study can help the proposition of more specific prevention and control measures, focused on highest risk subgroups.
Resumo:
O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.