971 resultados para MINIMAL IMPORTANT DIFFERENCE
Resumo:
OBJECTIVE: Low birth weight children are unusual among well-off families. However, in Brazil, low birth weight rate was higher in a more developed city than in a less developed one. The study objective was to find out the reasons to explain this paradox. METHODS: A study was carried out in two municipalities, Ribeirão Preto (Southeastern Brazil) and São Luís (Northeastern Brazil), which low birth weight rates were 10.7% and 7.6% respectively. Data from two birth cohorts were analyzed: 2,839 newborns in Ribeirão Preto in 1994 and 2,439 births in São Luís in 1997-1998. Multiple logistic regression analysis was performed, adjusted for confounders. RESULTS: Low birth weight risk factors in São Luís were primiparity, maternal smoking and maternal age less than 18 years. In Ribeirão Preto, the associated variables were family income between one and three minimum wages, maternal age less than 18 and equal to or more than 35 years, maternal smoking and cesarean section. In a combined model including both cohorts, Ribeirão Preto presented a 45% higher risk of low birth weight than São Luís. When adjusted for maternal smoking habit, the excess risk for low birth weight in Ribeirão Preto compared to São Luís was reduced by 49%, but the confidence interval was marginally significant. Differences in cesarean section rates between both cities contributed to partially explain the paradox. CONCLUSIONS: Maternal smoking was the most important risk factor for explaining the difference in low birth weight between both cities. The other factors contributed little to explain the difference in low birth weight rates.
Resumo:
Pós-graduação em Engenharia de Produção - FEG
Resumo:
Com o crescimento previsível e exponencial das redes de comunicações móveis motivado pela mobilidade, flexibilidade e também comodidade do utilizador levam a que este se torne na fatia mais importante do mundo das telecomunicações dos dias que correm. Assim é importante estudar e caracterizar canais rádio para as mais diversas gamas de frequências utilizadas nas mais variadas tecnologias. O objectivo principal desta dissertação de Mestrado é caracterizar um canal rádio para a tecnologia sem fios Worldwide Inter-operability for Microwave Access (Wimax para as frequências de 3,5 GHz e 5 GHz) actualmente vista pela comunidade científica como a tecnologia sem fios com maiores perspectivas de sucesso. Para tal, determinaram-se o Perfil de Atraso de Potência (PAP) e também a Potência em Função da Distância (PFD) recorrendo ao método computacional de simulação Finite-Difference Time-Domain (FDTD). De forma a estudar e caracterizar o canal rádio, em termos de desvanecimento relativo ao espalhamento de atraso, usaram-se dois métodos alternativos que têm como entrada o PAP. Para caracterizar o canal quanto ao desvanecimento baseado em espalhamento de Doppler, recorreu-se também a duas técnicas alternativas tendo como entrada o PFD. Em ambas as situações os dois métodos alternativos convergiram para os mesmos resultados. A caracterização é feita em dois cenários diferentes: um em que consideramos que a maioria dos obstáculos são condutores eléctricos perfeitos (CEP) e que passaremos a designar Cenário PEC, e um segundo cenário em que os obstáculos têm propriedades electromagnéticas diferentes, e que passará a ser designado por Cenário MIX. Em ambos os cenários de análise concluiu-se que o canal é plano, lento e sem ISI.
Resumo:
Introduction: Although relative uptake values aren’t the most important objective of a 99mTc-DMSA scan, they are important quantitative information. In most of the dynamic renal scintigraphies attenuation correction is essential if one wants to obtain a reliable result of the quantification process. Although in DMSA scans the absent of significant background and the lesser attenuation in pediatric patients, makes that this attenuation correction techniques are actually not applied. The geometric mean is the most common method, but that includes the acquisition of an anterior (extra) projection, which it is not acquired by a large number of NM departments. This method and the attenuation factors proposed by Tonnesen will be correlated with the absence of attenuation correction procedures. Material and Methods: Images from 20 individuals (aged 3 years +/- 2) were used and the two attenuation correction methods applied. The mean time of acquisition (time post DMSA administration) was 3.5 hours +/- 0.8h. Results: The absence of attenuation correction showed a good correlation with both attenuation methods (r=0.73 +/- 0.11) and the mean difference verified on the uptake values between the different methods were 4 +/- 3. The correlation was higher when the age was lower. The attenuation correction methods correlation was higher between them two than with the “no attenuation correction” method (r=0.82 +/- 0.8), and the mean differences of the uptake values were 2 +/- 2. Conclusion: The decision of not doing any kind of attenuation correction method can be justified by the minor differences verified on the relative kidney uptake values. Nevertheless, if it is recognized that there is a need for an accurate value of the relative kidney uptake, then an attenuation correction method should be used. Attenuation correction factors proposed by Tonnesen can be easily implemented and so become a practical and easy to implement alternative, namely when the anterior projection - needed for the geometric mean methodology – is not acquired.
Resumo:
Hoje em dia, a prevenção dos resíduos de metais é uma questão muito importante para um grande número de empresas, pois necessitam optimizar o seu sistema de tratamento de águas residuais a fim de alcançarem os limites legais dos teores em iões metálicos e poderem efectuar a descarga das águas residuais no domínio hídrico público. Devido a esta problemática foram efectuados estudos inovadores relacionados com a remoção de iões metálicos de águas residuais, verificando-se que as tecnologias de membrana oferecem uma série de vantagens para o efeito. Uma dessas tecnologias, referida como Membrana Líquida de Suporte (SLM), é baseada num mecanismo de extracção. A membrana hidrofóbica, impregnada com uma solução extractora, funciona como barreira entre a água residual e uma solução, geralmente ácida. A diferença de pH entre a água residual e a solução actua como força motriz para o transporte de iões metálicos da água residual para a referida solução. Poderá ocorrer um problema de falta de estabilidade, resultante da possível fuga da solução extractora para fora dos poros das membranas. Estudos anteriores mostraram que os ácidos alquilfosfóricos ou ácidos fosfónicos, como os reagentes D2EHPA e CYANEX e hidroxioximas como o LIX 860-I podem ser muito úteis para a extração de iões metálicos como ferro, cobre, níquel, zinco e outros. A clássica extracção líquido-líquido também tem mostrado que a mistura de diferentes extractores pode ter um efeito sinergético. No entanto, não é claro que haja um efeito óptimo da razão de extractor ou que tipo de complexo é formado durante o processo de extracção. O objectivo deste projecto é investigar este comportamento sinergético e as complexas formações por meio de um método espectrofotométrico, o “Job’s method” e “Mole-ratio method”. Estes métodos são utilizados para estimar a estequiometria dos vários complexos entre dois solutos, a partir da variação de absorvância dos complexos quando comparado com a absorvância do soluto. Com este projecto, o Job’s method e mole-ratio method serão aplicados a um sistema de três componentes, para conseguir mais informações sobre a complexação de níquel (II) e a fim de determinar a razão extractor: metal dos complexos formados durante a aplicação de mistura de extractores D2EHPA e LIX 860-I. Segundo Job’s method a elavada absorvância situa-se na região de 0,015-0,040 M de LIX 860-I e uma baixa concentração de D2EHPA. Quando as diferentes experiências são encontradas num conjunto experimental foram avaliadas de acordo com o método de trabalho, o valor máximo do gráfico foi encontrado para uma baixa fração molar do ião metálico e uma maior concentração de D2EHPA. Esta mudança foi encontrado de 0,50 até 0,30, que poderia apontar para a direção da formação de diferentes complexos. Para o Mole-Ratio method, a estequiometria dos complexos metal pode ser determinada a partir do ponto de intersecção das linhas tangente do gráfico da absorbância versus a concentração do ligante. Em todos os casos, o máximo foi obtido em torno de uma concentração total de 0,010 M. Quando D2EHPA foi aplicado sozinho, absorvâncias muito baixos foram obtidas.
Resumo:
A produção de vinho é uma actividade de elevada importância ao nível económico, ambiental e social. Como tal, a protecção da vinha e/ou da uva através da utilização de pesticidas assume um papel fundamental nesta actividade, permitindo um aumento no rendimento da produção. No entanto, a transferência destes compostos da uva para o vinho é inevitável, ocorrendo, na maioria dos casos, em quantidades reduzidas. Apesar de, geralmente, a quantidade de pesticidas que pode ser transferida para o vinho não apresentar problemas relevantes para a saúde pública, o desenvolvimento de metodologias que permitam garantir um controlo rigoroso da qualidade do vinho é de elevada importância. O controlo deste produto, assim como de qualquer produto alimentar, não deve ser de certa forma virtual, levando a uma desconfiança crescente do consumidor. Ao longo deste trabalho foram desenvolvidos dois métodos para a determinação de pesticidas em diferentes tipos de vinhos, por SPME-GC-MS/MS. O primeiro método desenvolvido visa a determinação de 8 pesticidas organofosforados e o segundo método permite a determinação de 7 pesticidas, 4 organoclorados e 3 dicarboximidas. Foram estudadas quatro matrizes diferentes: vinho branco do Douro, vinho tinto do Douro, vinho branco do Porto e vinho tinto do Porto. As metodologias adoptadas permitiram a obtenção de bons resultados, apesar das condições adoptadas não serem as mais vantajosas para alguns dos compostos estudados. Dada a complexidade das matrizes, a detecção por espectrometria de massa mostrou ser fundamental para a identificação inequívoca de cada um dos pesticidas. Verificaram-se, de um modo geral, bons resultados ao nível da linearidade, para as gamas de concentrações escolhidas, para os dois métodos. Obtiveram-se também bons resultados para os limites de detecção e quantificação, cujos valores se situam abaixo dos limites máximos de resíduos para as uvas, impostos pela regulamentação europeia, para a maioria dos compostos. No caso dos organofosforados, os limites de detecção variam entre 0,05 μg/L e 13,00 μg/L para os pesticidas clorpirifos-metilo e metidatião, respectivamente. Os limites de quantificação variam entre 0,18 μg/L e 43,32 μg/L, também para os pesticidas clorpirifos-metilo e metidatião. No que se refere ao método para os pesticidas organoclorados e dicarboximidas, foram calculados vários limites de detecção para cada composto, em cada matriz estudada, a partir das rectas de calibração diárias, resultando num conjunto de valores com variações significativas entre cada um, para o mesmo pesticida e na mesma matriz. No entanto, apenas os limites de quantificação foram validados, recorrendo-se aos estudos de repetibilidade e precisão intermédia. Obtiveram-se os seguintes limites de quantificação: captana 52,10 μg/L; clortalonil 20,95 μg/L; dicofol 4,37 μg/L; folpete 93,60 μg/L; iprodiona 274,70 μg/L; procimidona 76,04 μg/L e vinclozolina 10,03 μg/L. Os pesticidas metidatião e captana apresentam-se como os compostos mais problemáticos, uma vez que os limites de quantificação obtidos não permitem a garantia do cumprimento dos limites máximos de resíduos regulamentados. Demonstra-se também que, apesar do efeito de matriz ser significativo na determinação de todos os compostos analisados, o mesmo pode ser atenuado, procedendo-se às calibrações nas respectivas matrizes. Observaram-se variações significativas ao nível da resposta do equipamento ao longo do tempo, quer pela alteração das condições operatórias, quer pela decomposição de alguns compostos ao longo do tempo. Este efeito, evidenciado nos estudos das precisões intermédias e repetibilidades, levou à adopção de um método de validação diferente para a determinação de pesticidas organoclorados e dicarboximidas, recorrendo-se então a calibrações diárias e sequências de trabalho mais pequenas.
Resumo:
Atualmente, o álcool tem um papel importante na saúde pública e surge como um dos principais problemas sociais no mundo, dado que é a droga mais viciante aceite em encontros sociais. Provavelmente, por essa razão, os riscos do consumo abusivo do álcool são subestimados pelos jovens, mulheres grávidas e idosos. O álcool, quando ingerido em altas proporções, pode afetar todos os órgãos e desencadear inúmeras doenças, tais como a doença cardíaca coronariana, doença neurodegenerativa, as doenças crónicas e câncer. O álcool afeta ainda o estado psicológico, induzindo a violência, o estado antissocial e situações de risco de comportamentos. Por estas razões, o álcool tornou-se um foco principal da investigação, avaliando os seus efeitos sobre o corpo humano. Nesta pesquisa, foram suscitadas amostras de sangue de um grupo de pacientes em tratamento psicológico e/ou farmacêutico que serão analisadas com quatro métodos: Teste de Radicais Livres do Oxigénio (FORT), Defesa contra Radicais Livres do Oxigénio (FORD), cromatografia gasosa (GC) e cromatografia líquida de alta pressão (HPLC). Ambos os métodos FORT e FORD avaliam o stress oxidativo pela quantificação de radicais livres e a capacidade de antioxidantes em eliminar esses radicais livres, respetivamente. O stress oxidativo é o efeito do excesso de consumo de álcool, que é reduzido pela capacidade de ação dos antioxidantes. A boa reprodutibilidade, precisão e exatidão de ambos os métodos indicam que estes podem ser aplicados em rápidos diagnósticos. Para o método FORT e considerando o início do tratamento, os pacientes alcoólicos apresentaram uma média de 3,59±1.01mmol/LH2O2 e o grupo de controlo uma média de 1,42±0.53mmol/LH2O2, o que mostra uma diferença significativa entre os dois grupos (P=0,0006). Para o método FORD, pacientes alcoólicos apresentam uma média de 1,07±0.53mmol/LH2O2 e o grupo de controlo, uma média de 2,81±0.46mmol/LH2O2, mostrando também uma média significativa (P=0,0075). Após 15 dias de tratamento observou-se que há uma diferença entre os dois grupos de pacientes alcoólicos, mas não há nenhum melhoramento em relação ao grupo de pacientes em tratamento. No método FORT os grupos mostram uma diferença significativa (P=0,0073), tendo os pacientes sem tratamento farmacêutico melhores resultados (2.37±0.44mmol/LH2O2) do que os pacientes com tratamento (3.72±1,04mmol/LH2O2). O oposto ocorre no método FORD, os pacientes em tratamento farmacêutico presentam melhores resultados (1.16±0.65mmol/LH2O2) do que o outro grupo (0.75±0.22mmol/LH2O2), não sendo, no entanto, uma diferença significativa entre os dois grupos (P=0.16). Os resultados obtidos para a concentração de MDA pelo método de HPLC mostraram que o grupo de controlo tem valores mais baixos do que os pacientes alcoólicos, embora a diferença não seja muito significativa (P = 0,084), mas é ainda elevada. Além disso, os dois grupos de pacientes não apresentaram uma diferença significativa entre os seus resultados no início (P=0,77) e no fim (P=0,79) do tratamento. De acrescentar ainda que, os resultados da concentração de álcool no sangue determinados pelo método de CG mostraram que só alguns pacientes sem tratamento consumiram álcool durante o período de tratamento, o que influencia negativamente a conclusão sobre o efeito do tratamento. Contudo, outros fatores externos podem ainda influenciar os resultados finais, tais como o estado nutricional e estado psicológico dos pacientes, se o paciente continua a beber durante o tempo de tratamento ou até mesmo se o paciente é exposto a outros tipos de substâncias nocivas. Existe ainda a possibilidade de o tempo de aplicação do tratamento não ser suficiente para apresentar um efeito positivo em relação ao stress oxidativo e este é um outro fator que contribui para a impossibilidade de confirmar sobre o efeito, quer seja positivo ou negativo, do tratamento antioxidante.
Resumo:
Mestrado em Controlo e Gestão dos Negócios
Resumo:
Este trabalho teve o intuito de testar a viabilidade da programação offline para tarefas de lixamento na empresa Grohe Portugal. Para tal era necessário perceber o que é a programação offline e para isso foi efectuada uma pesquisa referente a essa temática, onde ficou evidente que a programação offline é em tudo semelhante à programação online, tendo apenas como principal diferença o facto de não usar o robô propriamente dito durante o desenvolvimento do programa. Devido à ausência do robô, a programação offline exige que se conheça detalhadamente a célula de trabalho, bem como todas as entradas e saídas associadas à célula, sendo que o conhecimento das entradas e saídas pode ser contornada carregando um backup do robô ou carregando os módulos de sistema. No entanto os fabricantes habitualmente não fornecem informação detalhada sobre as células de trabalho, o que dificulta o processo de implementação da unidade no modelo 3D para a programação offline. Após este estudo inicial, foi efectuado um estudo das características inerentes a cada uma das células existentes, com o objectivo de se obter uma melhor percepção de toda a envolvente relacionada com as tarefas de lixamento. Ao longo desse estudo efectuaram-se vários testes para validar os diversos programas desenvolvidos, bem como para testar a modelação 3D efectuada. O projecto propriamente dito consistiu no desenvolvimento de programas offline de forma a minimizar o impacto (em especial o tempo de paragem) da programação de novos produtos. Todo o trabalho de programação era até então feito utilizando o robô, o que implicava tempos de paragem que podiam ser superiores a três dias. Com o desenvolvimento dos programas em modo offline conseguiu-se reduzir esse tempo de paragem dos robôs para pouco mais de um turno (8h), existindo apenas a necessidade de efectuar algumas afinações e correcções nos movimentos de entrada, saída e movimentações entre rotinas e unidades, uma vez que estes movimentos são essenciais ao bom acabamento da peça e convém que seja suaves. Para a realização e conclusão deste projecto foram superadas diversas etapas, sendo que as mais relevantes foram: - A correcta modelação 3D da célula, tendo em conta todo o cenário envolvente, para evitar colisões do robô com a célula; - A adaptação da programação offline para uma linguagem mais usual aos afinadores, ou seja, efectuar a programação com targets inline e criar diferentes rotinas para cada uma das partes da peça, facilitando assim a afinação; - A habituação à programação recorrendo apenas ao uso de módulos para transferir os programas para a célula, bem como a utilização de entradas, saídas e algumas rotinas e funcionalidades já existentes.
Resumo:
Mestrado em Controlo e Gestão e dos Negócios
Resumo:
Atualmente e devido às conjunturas sócio económicas que as empresas atravessam, é importante maximizar tanto os recursos materiais como humanos. Essa consciência faz com que cada vez mais as empresas tentem que os seus colaboradores possam desempenhar um papel importante no processo de decisão. Cada vez mais a diferença entre o sucesso e o fracasso depende da estratégia que cada empresa opte por envergar. Sendo assim cada atividade desempenhada por um seu colaborador deve estar alinhada com os objetivos estratégicos da empresa. O contexto em que a presente tese se insere tem por base uma pesquisa aos vários métodos multicritério existentes, de forma a que o serviço que seja adjudicado possa ser executado de forma transparente e eficiente, sem nunca descorar a sua otimização. O método de apoio à decisão escolhido foi o Analytic Hierarchy Process (AHP). A necessidade de devolver aos decisores/gestores a melhor solução resultante da aplicação de um método de apoio à decisão numa empresa de serviços energéticos foi a base para a escolha da tese. Dos resultados obtidos conclui-se que a aplicação do método AHP foi adequada, conseguindo responder a todos os objetivos inicialmente propostos. Foi também possível verificar os benefícios que advêm da sua aplicação, que por si só, ajudaram a perceber que é necessário haver uma maior entreajuda e consenso entre as decisões a tomar.
Resumo:
The knowledge-based society we live in has stressed the importance of human capital and brought talent to the top of most wanted skills, especially to companies who want to succeed in turbulent environments worldwide. In fact, streams, sequences of decisions and resource commitments characterize the day-to-day of multinational companies (MNCs). Such decision-making activities encompass major strategic moves like internationalization and new market entries or diversification and acquisitions. In most companies, these strategic decisions are extensively discussed and debated and are generally framed, formulated, and articulated in specialized language often developed by the best minds in the company. Yet the language used in such deliberations, in detailing and enacting the implementation strategy is usually taken for granted and receives little if any explicit attention (Brannen & Doz, 2012) an can still be a “forgotten factor” (Marschan et al. 1997). Literature on language management and international business refers to lack of awareness of business managers of the impact that language can have not only in communication effectiveness but especially in knowledge transfer and knowledge management in business environments. In the context of MNCs, management is, for many different reasons, more complex and demanding than that of a national company, mainly because of diversity factors inherent to internationalization, namely geographical and cultural spaces, i.e, varied mindsets. Moreover, the way of functioning, and managing language, of the MNC depends on its vision, its values and its internationalization model, i.e on in the way the MNE adapts to and controls the new markets, which can vary essentially from a more ethnocentric to a more pluricentric focus. Regardless of the internationalization model followed by the MNC, communication between different business units is essential to achieve unity in diversity and business sustainability. For the business flow and prosperity, inter-subsidiary, intra-company and company-client (customers, suppliers, governments, municipalities, etc..) communication must work in various directions and levels of the organization. If not well managed, this diversity can be a barrier to global coordination and create turbulent environments, even if a good technological support is available (Feely et al., 2002: 4). According to Marchan-Piekkari (1999) the tongue can be both (i) a barrier, (ii) a facilitator and (iii) a source of power. Moreover, the lack of preparation for the barriers of linguistic diversity can lead to various costs, including negotiations’ failure and failure on internationalization.. On the other hand, communication and language fluency is not just a message transfer procedure, but above all a knowledge transfer process, which requires extra-linguistic skills (persuasion, assertiveness …) in order to promote credibility of both parties. For this reason, MNCs need a common code to communicate and trade information inside and outside the company, which will require one or more strategies, in order to overcome possible barriers and organization distortions.
Resumo:
Mestrado em Radioterapia
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de Mestre em Intervenção Precoce
Resumo:
Graphics processors were originally developed for rendering graphics but have recently evolved towards being an architecture for general-purpose computations. They are also expected to become important parts of embedded systems hardware -- not just for graphics. However, this necessitates the development of appropriate timing analysis techniques which would be required because techniques developed for CPU scheduling are not applicable. The reason is that we are not interested in how long it takes for any given GPU thread to complete, but rather how long it takes for all of them to complete. We therefore develop a simple method for finding an upper bound on the makespan of a group of GPU threads executing the same program and competing for the resources of a single streaming multiprocessor (whose architecture is based on NVIDIA Fermi, with some simplifying assunptions). We then build upon this method to formulate the derivation of the exact worst-case makespan (and corresponding schedule) as an optimization problem. Addressing the issue of tractability, we also present a technique for efficiently computing a safe estimate of the worstcase makespan with minimal pessimism, which may be used when finding an exact value would take too long.