47 resultados para Modelos lineares (Estatística)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução: Estudos anteriores em modelos tumorais de glioma e melanoma, tumores radiorresistentes, indicaram que a obesidade pode estar relacionada com um aumento do status oxidativo e com a diminuição da resistência à radiação. Como a Radioterapia é o tratamento frequentemente utilizado para esta patologia, propomo-nos, desta forma, a explorar a influência da obesidade em células de glioma, as BC3H1, e melanoma, B16F10, submetidas a Radioterapia, na presença de agentes oxidantes e antioxidantes, para o estudo da sua influência ao nível da viabilidade celular e do impacto do stress oxidativo. Métodos: As células BC3H1 e B16F10 foram tratadas com t-BOOH (150μM e 50 μM, respetivamente), TUDCA (25μM e 1μM, respetivamente) e com a mistura de t-BOOH+TUDCA em meio DMEM sem soro e meio condicionado (CM), a partir de adipócitos 3T3-L1. Em seguida, parte das células foram irradiadas com uma dose total de 2Gy. Posteriormente avaliou-se a viabilidade celular (teste MTT) e o stress oxidativo (teste TBARS, atividade da catalase, concentração da GSH, e status antioxidante total), às 4h e 12h. Resultados: Observou-se um aumento da capacidade antioxidante total das células irradiadas, comparativamente com as células não irradiadas. O meio condicionado reduziu o stress oxidativo nas BC3H1, ao mesmo tempo que reduziu a sua viabilidade celular. O TUDCA nas células incubadas com MC e submetidas a radioterapia, tendencialmente diminuiu a viabilidade celular, nas concertações em estudo. Discussão/Conclusão: O meio condicionado e a radioterapia, por si só, aumentam a resposta antioxidante total na célula, às 4h e às 12h. O TUDCA nas células incubadas com meio condicionado e submetidas a radioterapia, teve um comportamento citotóxico para as BC3H1, nas concentrações testadas. Revelando a necessidade de aprofundar os estudos da ação deste composto como agente radiossensibilizador, neste e noutros modelos celulares de carcinogénese.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste relatório apresentam-se resultados de um estudo estatístico que procura contribuir para um melhor entendimento da problemática inerente à liberalização do setor elétrico em Portugal e dos desafios que esta liberalização, existente desde meados de 2007, trás aos seus intervenientes. Iniciam-se os trabalhos com um estudo que pretende avaliar a existência de relação entre o Preço de Mercado da eletricidade e um conjunto de variáveis potencialmente explicativas/condicionantes do Preço de Mercado. Neste estudo consideram-se duas abordagens. A primeira usa a função de correlação cruzada para avaliar a existência de relação do tipo linear entre pares de variáveis. A segunda considera o teste causalidade de Granger na avaliação de uma relação de causa e efeito entre esses pares. Este estudo avaliou a relação entre o Preço de Mercado da eletricidade e 19 variáveis ditas condicionantes distribuídas por três categorias distintas (consumo e produção de eletricidade; indicadores climáticos; e energias primárias). O intervalo de tempo em estudo cinge-se ao biénio 2012-2103. Durante este período avaliam-se as relações entre as variáveis em diversos sub-períodos de tempo em ciclos de consumo representativos do consumo em baixa (fim de semana) e de consumo mais elevado (fora de vazio) com os valores observados de cada uma das variáveis tratados com uma base horária e diária (média). Os resultados obtidos mostram a existência relação linear entre algumas das variáveis em estudo e o preço da eletricidade em regime de mercado liberalizado, mas raramente é possível identificar precedência temporal entre as variáveis. Considerando os resultados da análise de correlação e causalidade, apresenta-se ainda um modelo de previsão do Preço de Mercado para o curto e médio prazo em horas de período fora de vazio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O constante crescimento dos produtores em regime especial aliado à descentralização dos pontos injetores na rede, tem permitido uma redução da importação de energia mas também tem acarretado maiores problemas para a gestão da rede. Estes problemas estão relacionados com o facto da produção estar dependente das condições climatéricas, como é o caso dos produtores eólicos, hídricos e solares. A previsão da energia produzida em função da previsão das condições climatéricas tem sido alvo de atenção por parte da comunidade empresarial do setor, pelo facto de existir modelos razoáveis para a previsão das condições climatéricas a curto prazo, e até a longo prazo. Este trabalho trata, em concreto, do problema da previsão de produção em centrais mini-hídricas, apresentando duas propostas para essa previsão. Em ambas as propostas efetua-se inicialmente a previsão do caudal que chega à central, sendo esta depois convertida em potência que é injetada na rede. Para a previsão do caudal utilizaram-se dois métodos estatísticos: o método Holt-Winters e os modelos ARMAX. Os dois modelos de previsão propostos consideram um horizonte temporal de uma semana, com discretização horária, para uma central no norte de Portugal, designadamente a central de Penide. O trabalho também contempla um pequeno estudo da bibliografia existente tanto para a previsão da produção como de afluências de centrais hidroelétricas. Aborda, ainda, conceitos relacionados com as mini-hídricas e apresenta uma caraterização do parque de centrais mini-hídricas em Portugal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A BAMoL (Business Application Modeling Language) é uma linguagem de domínio específico utilizada para o desenvolvimento de soluções para a plataforma myMIS, no âmbito dos sistemas de informação para a gestão. Esta linguagem carecia de dois aspetos, nomeadamente a sua formalização e a existência de mecanismos de validação sintática das soluções desenvolvidas. Estes problemas identificados tornam impossível a validação sintática das soluções desenvolvidas utilizando esta linguagem, aumentando assim a probabilidade de existência de erros, podendo fazer com que as mesmas sejam mais ineficientes e podendo até trazer um aumento de custos de manutenção da plataforma. De forma a resolver os problemas enunciados, foi realizada, para o primeiro, uma descrição textual de todos os constituintes da linguagem e criada uma gramática representativa da mesma, em que constam todos os seus elementos e regras. No caso do segundo problema, a sua resolução passou pela criação de uma ferramenta que utiliza a gramática criada e que permite validar sintaticamente e encontrar as falhas das soluções desenvolvidas. Desta forma, passa a ser possível detetar os erros existentes nas soluções, permitindo assim à equipa de desenvolvimento ter maior controlo sobre as mesmas, podendo torná-las mais corretas, na perspetiva das regras da linguagem.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o atual estado da construção em Portugal, a reabilitação urbana é uma realidade. Com muitos dos edifícios a necessitarem de reforço, procurou-se abordar o comportamento real das estruturas, indo além da típica análise linear elástica. Desta forma, pretendeu-se aumentar o conhecimento acerca da modelação numérica não-linear de estruturas de betão armado, expondo modelos de cálculo relativamente simples e de fácil compreensão, com o objetivo de servir de base a uma avaliação da capacidade de carga de um elemento estrutural. O modelo de cálculo foi validado com recurso ao trabalho experimental de Bresler e Scordelis (1963). Analisou-se o comportamento até à rotura de três vigas ensaiadas à flexão. Posteriormente, foi realizado um estudo paramétrico de algumas propriedades do betão com vista à discussão do melhor de ajuste. Em seguida, já no campo do reforço estrutural, simulou-se numericamente vigas reforçadas com CFRP, com recurso à técnica EBR e NSM. Comparam-se os resultados numéricos com os ensaios experimentais de Cruz et al. (2011a). Avaliou-se ainda o desempenho de soluções alternativas com variações na área e comprimento dos laminados. Para finalizar, foi desenvolvida uma campanha experimental com diferentes áreas de reforço. Conceberam-se e executaram-se três vigas de betão armado sobre as quais se instalaram laminados de CFRP. Os resultados experimentais são apresentados e discutidos à luz dos resultados do respetivo modelo numérico. No cômputo geral, o presente trabalho permitiu aferir a validade de modelos não-lineares na previsão do comportamento efetivo das estruturas até à rotura. Assinala-se a concordância em vários resultados experimentais analisados. Ficaram também patentes os principais fenómenos ligados ao reforço de vigas com CFRP, focados nos respetivos modelos de cálculo e nos resultados experimentais apresentados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A evolução digital proporcionou às sociedades uma facilidade extraordinária de comunicação. Com o número crescente de computadores e o aumento de acessos à internet, surgiu uma nova forma de criminologia, que cresceu em paralelo com o número de utilizadores. Desta forma, tornou-se comum a criação e difusão de vírus informáticos pelos chamados hackers. Neste trabalho estudam-se modelos de transmissão de vírus informáticos, usando modelos epidemiológicos. Começa-se por fazer uma revisão dos modelos existentes na literatura, de seguida sugerem-se alterações a esses modelos de forma a conseguir uma melhor aproximação à dinâmica real de transmissão de vírus informáticos. As simulações numéricas dos modelos permitem-nos inferir de que uma forma de controlar a transmissão de vírus informáticos é a diminuição da taxa de infeção, isto é, da taxa de transmissão do vírus. No último capítulo enumeram-se as conclusões do trabalho efetuado e indicam-se direções de trabalho futuro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As empresas nacionais deparam-se com a necessidade de responder ao mercado com uma grande variedade de produtos, pequenas séries e prazos de entrega reduzidos. A competitividade das empresas num mercado global depende assim da sua eficiência, da sua flexibilidade, da qualidade dos seus produtos e de custos reduzidos. Para se atingirem estes objetivos é necessário desenvolverem-se estratégias e planos de ação que envolvem os equipamentos produtivos, incluindo: a criação de novos equipamentos complexos e mais fiáveis, alteração dos equipamentos existentes modernizando-os de forma a responderem às necessidades atuais e a aumentar a sua disponibilidade e produtividade; e implementação de políticas de manutenção mais assertiva e focada no objetivo de “zero avarias”, como é o caso da manutenção preditiva. Neste contexto, o objetivo principal deste trabalho consiste na previsão do instante temporal ótimo da manutenção de um equipamento industrial – um refinador da fábrica de Mangualde da empresa Sonae Industria, que se encontra em funcionamento contínuo 24 horas por dia, 365 dias por ano. Para o efeito são utilizadas medidas de sensores que monitorizam continuamente o estado do refinador. A principal operação de manutenção deste equipamento é a substituição de dois discos metálicos do seu principal componente – o desfibrador. Consequentemente, o sensor do refinador analisado com maior detalhe é o sensor que mede a distância entre os dois discos do desfibrador. Os modelos ARIMA consistem numa abordagem estatística avançada para previsão de séries temporais. Baseados na descrição da autocorrelação dos dados, estes modelos descrevem uma série temporal como função dos seus valores passados. Neste trabalho, a metodologia ARIMA é utilizada para determinar um modelo que efetua uma previsão dos valores futuros do sensor que mede a distância entre os dois discos do desfibrador, determinando-se assim o momento ótimo da sua substituição e evitando paragens forçadas de produção por ocorrência de uma falha por desgaste dos discos. Os resultados obtidos neste trabalho constituem uma contribuição científica importante para a área da manutenção preditiva e deteção de falhas em equipamentos industriais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na tentativa de se otimizar o processo de fabrico associado a uma tinta base aquosa (TBA), para minimizar os desvios de viscosidade final verificados, e de desenvolver um novo adjuvante plastificante para betão, recorreu-se a métodos e ferramentas estatísticas para a concretização do projeto. Relativamente à TBA, procedeu-se numa primeira fase a um acompanhamento do processo de fabrico, a fim de se obter todos os dados mais relevantes que poderiam influenciar a viscosidade final da tinta. Através de uma análise de capacidade ao parâmetro viscosidade, verificou-se que esta não estava sempre dentro das especificações do cliente, sendo o cpk do processo inferior a 1. O acompanhamento do processo resultou na escolha de 4 fatores, que culminou na realização de um plano fatorial 24. Após a realização dos ensaios, efetuou-se uma análise de regressão a um modelo de primeira ordem, não tendo sido esta significativa, o que implicou a realização de mais 8 ensaios nos pontos axiais. Com arealização de uma regressão passo-a-passo, obteve-se uma aproximação viável a um modelo de segunda ordem, que culminou na obtenção dos melhores níveis para os 4 fatores que garantem que a resposta viscosidade se situa no ponto médio do intervalo de especificação (1400 mPa.s). Quanto ao adjuvante para betão, o objetivo é o uso de polímeros SIKA ao invés da matériaprima comum neste tipo de produtos, tendo em conta o custo final da formulação. Escolheram-se 3 fatores importantes na formulação do produto (mistura de polímeros, mistura de hidrocarbonetos e % de sólidos), que resultou numa matriz fatorial 23. Os ensaios foram realizados em triplicado, em pasta de cimento, um para cada tipo de cimento mais utilizado em Portugal. Ao efetuar-se a análise estatística de dados obtiveram-se modelos de primeira ordem para cada tipo de cimento. O processo de otimização consistiu em otimizar uma função custo associada à formulação, garantindo sempre uma resposta superior à observada pelo produto considerado padrão. Os resultados foram animadores uma vez que se obteve para os 3 tipos de cimentocustos abaixo do requerido e espalhamento acima do observado pelo padrão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho propõe-se a investigar as teorias e modelos organizacionais e a respetiva aplicabilidade nas organizações portuguesas. Após a revisão da literatura sobre modelos organizacionais, foi efetuada uma investigação quantitativa através de um questionário online com a finalidade de avaliar quais os modelos organizacionais predominantemente utilizados e quais as características organizacionais que levam à utilização de determinado modelo. Através de métodos estatísticos analisaram-se os resultados do inquérito com o objetivo de verificar a existência de possíveis relações entre diversas características das organizações e o modelo organizacional usado. Foi possível concluir que o modelo organizacional Burocrático é o modelo predominantemente utilizado pelos respondentes e que as organizações que adotam o modelo burocrático parecem conseguir implementar processos sistemáticos de inovação compatibilizando as regras e procedimentos com a capacidade para aprender e se adaptar. O setor de atividade e a dimensão das organizações são as variáveis que mais influenciam a adoção do modelo organizacional. A investigação contribui para o conhecimento teórico e pratico sobre modelos organizacionais e sobre a sua aplicação em diferentes tipos de organizações portuguesas e para a compreensão e capacitação dos engenheiros do tema da cultura organizacional, de modo a poderem trabalhar de forma efetiva em grupos multidisciplinares que criem valor para as respetivas organizações, inovando e aplicando a engenharia e tecnologia para lidar com as questões e desafios atuais referidos pelo relatório da UNESCO (1).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É de senso comum que os nutrientes são fundamentais à vida e que a subnutrição leva à acumulação de gorduras que pode chegar a casos de obesidade, tendo como consequência inúmeras complicações de saúde. Diferentes estruturas neuroanatómicas do cérebro têm um papel essencial no comportamento digestivo. A ação de várias moléculas de sinalização (hormonas, neurotransmissores e neuropéptidos) resulta na regulação da ingestão de alimentos, sendo que, por exemplo, algumas hormonas podem aumentar a sensação de saciedade podendo diminuir o apetite e a ingestão calórica. A descoberta de hormonas envolvidas no balanço energético proporcionou novas oportunidades para desenvolver meios para o tratamento da obesidade. A transferência de medicação antiobesidade por via tópica ou transdérmica é um desafio pois a pele funciona como uma barreira natural e protetora. Sendo uma barreira com uma grande área de superfície e de fácil acessibilidade, a pele tem potencial interesse na libertação de fármacos específicos a cada terapia. Vários métodos têm sido estudados de modo a permitir um aumento da permeabilidade de moléculas terapêuticas para o interior da pele e através da pele. As biotecnologias transdérmicas são um campo de interesse cada vez maior, devido as aplicações dérmicas e farmacêuticas que lhes estão subjacentes. Existem vários modelos computacionais e matemáticos em uso que permite uma visão mais abrangente de puros dados experimentais e até mesmo permite a extrapolação prática de novas metodologias de difusão dérmica. Contudo, eles compreendem uma complexa variedade de teorias e suposições que atribuem a sua utilização para situações específicas. Este trabalho, primeiramente analisa, de forma extensiva, as várias metodologias teóricas para o estudo da difusão dérmica e sistematiza as suas características, realizando depois a fase prévia duma nova abordagem computacional para o estudo da difusão dérmica, que determina características microscópicas de moléculas capazes de provocar a perda de peso, tais como a Leptina e/ou os seus agonistas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A informação contabilística constitui um dos pilares fundamentais para a formação de juízos e tomada de decisões empresariais e, para isso, deve cumprir os requisitos de qualidade, objectividade, transparência, rigor, responsabilidade e independência. Para o efeito, a informação é elaborada com base em políticas e critérios contabilísticos, conceitos e pressupostos subjacentes à “Estrutura Conceptual” dos normativos emitidos por organismos nacionais e internacionais, e em princípios sustentados no “Governo das Sociedades” e respectivas recomendações, considerando as necessidades dos seus utilizadores. O presente estudo tem por objectivo explorar a relação entre a Informação Financeira Divulgada e o Modelo de Governação das Sociedades e fornecer uma melhor e mais profunda compreensão das características das sociedades que influenciam a divulgação. Neste estudo, foi utilizada uma amostra de empresas portuguesas não financeiras, emitentes de acções, que se encontram admitidas a negociação no mercado de cotações oficiais da New York Stock Exchange, adiante designada por NYSE Euronext Lisbon, no período de 2010 a 2012. Os elementos foram recolhidos através da leitura e análise dos Relatórios e Contas Anuais publicados e por consulta da base de dados DataStream. Os dados obtidos foram analisados através de modelos de regressão linear múltipla, considerando o modelo de dados em painel, tendo sido utilizado o programa de estatística Gnu Regression, Econometrics and Time- Series Library (GRETL), versão 1.9.92 (Sep 20, 2014), embora, para a análise das correlações, tenha sido utilizado, também, o programa estatístico Statistical Package for the Social Sciences, adiante denominado IBM SPSS Statistics, versão 19. A análise dos resultados indica que as principais determinantes subjacentes à divulgação relacionada com o índice de cumprimento sobre o Governo das Sociedades são as variáveis explicativas relacionadas com: (i) dimensão da empresa; (ii) endividamento; (iii) concentração accionista; (iv) negociabilidade; (v) percentagem de acções detidas pelos administradores executivos; (vi) rendibilidade do investimento total; e (vii) remuneração dos administradores não executivos. Os testes efectuados mostram que os resultados alcançados são robustos para modelar especificações e problemas de existência de multicolinearidade. O software utiliza o método de Arellano (2004) com a finalidade de corrigir o problema de possibilidade de existência de heteroscedasticidade e de autocorrelação. Nesta base, verificaram-se todas as situações que poderiam criar obstáculos e causar enviesamento nos estimadores e definições das variáveis. Relativamente ao índice global de divulgação dos riscos e incertezas, concluiu-se que é provavelmente determinado por diferentes variáveis. Esta investigação enriquece a discussão sobre as relações entre a divulgação da informação e a estrutura do Governo das Sociedades. Assim, o estudo pode ser útil para accionistas, administradores, credores e outros investidores, quanto à reflexão da adequação da informação divulgada nos relatórios e contas anuais, com a finalidade da tomada de decisões idóneas e fundamentadas. Porém, é essencial que os reguladores incentivem as empresas a adequarem melhor as práticas de governo e a criarem mais mecanismos de forma a alcançar um maior nível de independência e uma adopção mais ajustada das recomendações sobre o Governo das Sociedades.