1000 resultados para Novos modelos de carreira
Resumo:
A expressão da capacidade resistente de fundações superficiais, proposta por Terzaghi (1943) para o caso de uma fundação corrida, sob carregamento vertical, centrado, e onde não se tem em conta a resistência do solo acima da base de fundação, tem sido alvo de diversos estudos ao longo do tempo, visando a melhoria dos factores associados à mesma, assim como a proposta de novos factores. Uma das metodologias disponíveis para tal tarefa é a Análise Limite, onde, através dos teoremas estático e cinemático é possível obter um intervalo que aproxima a carga de colapso. Com o recurso à implementação numérica do teorema cinemático (região superior) da análise limite numa plataforma de processamento paralelo, são realizados cálculos tridimensionais focados para os factores de forma, sγ, sq e sc; e para o factor de profundidade tridimensional, dq*, através da construção de modelos de elementos finitos com refinamento elevado. Os resultados obtidos permitem o encurtamento do intervalo de região inferior e superior e a observação do comportamento dos referidos factores com a evolução da forma e profundidade da fundação.
Resumo:
Realizou-se um estudo ecológico com a análise da distribuição espacial dos 979 novos casos de tuberculose entre 2000 e 2005. Utilizou-se o Método Bayesiano Empírico Local para estimação do risco. O Índice de Moram Local foi calculado para avaliação das autocorrelações entre as incidências de bairros limítrofes. Observou-se que a tuberculose distribui-se heterogeneamente entre os bairros, sendo possível identificar regiões com alto risco de adoecimento.
Resumo:
A Fibrilhação Auricular é uma alteração do ritmo cardíaco designada por arritmia. Esta patologia é considerada a forma de arritmia mais frequentemente observada na prática clínica e que constitui uma importante causa de morbilidade pelo risco inerente de desenvolvimento de AVC. Em 2010 foi realizado um estudo epidemiológico na população Portuguesa com o objectivo determinar a prevalência de Fibrilhação Auricular na população portuguesa com idade igual ou superior a 40 anos, sob o acrónimo de FAMA. Os dados publicados indicaram uma estimativa de prevalência de 2,5%, com um aumento da prevalência em função da classe etária. A nível regional não foram observadas diferenças na taxa de prevalência. Estudos de mapeamento de doenças mostraram que a determinação de taxas de prevalência por região, quando o número de casos observados é relativamente baixo, apresentam sobredispersão e, consequentemente, uma falta de precisão nas estimativas obtidas através um método frequencista clássico. A utilização de modelos Bayesianos hierárquicos no mapeamento de doenças tem apresentado vantagem na estimação de valores de risco da doença comparativamente à abordagem clássica. Assim, é objectivo deste trabalho determinar a prevalência de Fibrilhação Auricular na população Portuguesa por região, ao nível da NUTS III, usando modelos hierárquicos Bayesianos. Os dados utilizados neste estudo são os dados referentes ao estudo FAMA, pós-estratificados para correcção dos ponderadores. O modelo Bayesiano proposto por Besag, York e Mollié (1991) foi usado para modelar os dados, covariando para a idade e índice de massa corporal. A revisão do desenho do estudo e o recálculo dos ponderadores foi realizado com recurso ao software R, survey, e a análise Bayesiana efectuada através do WinBugs. iii Os resultados deste estudo demonstram que o uso de modelos Bayesianos são uma melhor opção para a estimação de valores risco relativo e prevalência da doença. Contudo, a utilização de covariáveis não resultou numa melhoria considerável ao contrário do que seria esperado. Conclui-se que a Fibrilhação Auricular apresenta variações regionais significativas, a nível de NUTS III, que não devem ser desvalorizadas na determinação de políticas de saúde pública para controle da doença.
Resumo:
O principal objectivo deste trabalho assenta em desenvolver modelos de previsão de preços de commodities para assim comparar a capacidade preditiva da simulação de Monte Carlo com a das redes neuronais. A simulação de Monte Carlo é principalmente utilizada para avaliar as opções, já as redes neuronais são utilizadas para fazer previsões, classificações, clustering ou aproximação de funções. Os diversos modelos desenvolvidos foram aplicados na previsão do preço futuro do milho, petróleo, ouro e cobre. Sendo que os horizontes temporais testados neste trabalho foram 1 dia, 5 dias, 20 dias e 60 dias. Através da análise do erro absoluto médio percentual (MAPE) concluiu-se que no geral o modelo individual que apresentou um melhor desempenho preditivo foram as redes neuronais. Contudo, nas previsões a 1 e a 5 dias os resultados obtidos foram semelhantes para ambos os modelos. Para se tentar melhorar os resultados obtidos pelos modelos individuais foram aplicadas algumas técnicas de combinação de modelos. A combinação de modelos demonstrou no geral capacidade para melhorar os resultados dos modelos individuais, porém apenas para o horizonte a 60 dias é que os resultados melhoraram significativamente.
Resumo:
A elicitação de requisitos é uma das primeiras actividades do processo de Engenharia de Requisitos. Através desta etapa é possível capturar e estruturar os requisitos dos stakeholders e do sistema a ser implementado. Tipicamente esta estruturação é representada através de notação gráfica com o auxílio de ferramentas CASE. Estas ferramentas tornam esta actividade exclusiva, em termos de acessibilidade, a engenheiros sem deficiências físicas devido à complexidade das funcionalidades oferecidas pelas mesmas que permitem construir estes modelos. Nesta dissertação de mestrado é proposto desenvolver uma abordagem com suporte de uma ferramenta para melhorar a acessibilidade, e consequentemente,integrar um engenheiro de requisitos com limitações físicas na actividade de elicitação de requisitos. A ferramenta também possibilita uma alternativa para os stakeholders em geral para produzir modelos sem usar as mãos quando for mais conveniente. Esta abordagem propõe usar mecanismos de voz na geração de modelos de requisitos, mais concretamente modelos de requisitos orientados a objectivos, modelos de objectos e modelos de features usando técnicas de Model-Driven Development (MDD) (e.g., metamodelos). O stakeholder assim irá capturar os seus requisitos através de mecanismos de reconhecimento de voz, sendo automaticamente realizada uma transformação do seu discurso para um modelo KAOS, para um modelo conceptual ou para um modelo de features.
Resumo:
As abordagens de engenharia de requisitos orientada a objetivos oferecem mecanismos que ajudam na elicitação e modelação de requisitos. A presente dissertação centra-se no framework i*, uma das mais importantes linguagens de especificação de modelos de requisitos orientados a objetivos, que conta com grupos de trabalho em mais de vinte países e com sete edições de workshops internacionais. Existem alguns problemas que podem afetar a qualidade de modelos i*. A sua criação pode resultar em modelos complexos e/ou incompletos, assim como incorretos devido ao mau uso da notação do i*. Estes problemas contribuem para a existência de dificuldades na gestão e compreensão dos sistemas de software o que, por sua vez, leva a um aumento dos custos de desenvolvimento. A qualidade dos modelos deve, então, ser uma preocupação constante, por forma a que sejam construídos modelos corretos, completos e cuja complexidade acidental seja minimizada. Não obstante a sua importância, a gestão eficaz destes três aspetos é, ainda, um problema em aberto. Nesta dissertação é proposto um conjunto de métricas para dar suporte à avaliação quantitativa dos atributos de qualidade complexidade, completude e correção nos modelos de requisitos i*. As métricas são definidas seguindo a abordagem Goal-Question- Metric, sendo definidas tanto de modo informal, em língua natural, como formalmente, em OCL (Object Contraint Language), e incorporadas numa ferramenta de modelação i* para que possam ser recolhidas de modo automático. As métricas são avaliadas experimentalmente, através de um conjunto de casos de estudo reais e académicos, e teoricamente, através de propriedades deWeyuker.
Resumo:
No processo de desenvolvimento de software, um dos problemas recorrentes é garantir que as expectativas das partes interessadas (stakeholders) estão a ser satisfeitas. Expectativas essas que correspondem ao comportamento do sistema. A disciplina de Engenharia de Requisitos estuda a melhor forma de capturar, especificar, validar e gerir requisitos. No entanto, os modelos utilizados que expressam os comportamentos, muitas das vezes, não são entendidos por parte dos stakeholders. Com a introdução das metodologias ágeis, que se baseiam no princípio de uma colaboração ativa e contínua dos stakeholders durante o desenvolvimento de software, os pressupostos da disciplina de Engenharia de Requisitos foram questionados e fizeram nascer novas práticas. Uma prática que emergiu foi o Desenvolvimento Orientado ao Comportamento (BDD). Surgiu com a finalidade de dar a capacidade aos stakeholders de expressarem, sob a forma textual, o comportamento que desejam para o seu software, de forma simples e sucinta. No entanto, não existindo restrições nem validações automáticas na escrita dos stakeholders, é criada a possibilidade de introdução de ambiguidade e perda de informação quando a equipa de desenvolvimento utiliza os cenários descritos. Dado este problema, propomos uma abordagem em que os stakeholders consigam especificar cenários comportamentais, de forma cognitiva, com uma representação simples, clara e mais precisa. Criamos duas linguagens, o DomainMap e o BehaviorMap, que estão relacionadas entre si: uma para representar modelos de domínio e outra para representar cenários BDD, respetivamente. Foi executada uma experiência com 15 indivíduos para comparar o esforço cognitivo na compreensão entre cenários BehaviorMap e cenários textuais e os resultados mostraram que o BehaviorMap teve melhor desempenho.
Resumo:
Reflectir actualmente sobre os modos de distribuição e de produção de conteúdos é necessariamente reflectir também sobre novas audiências. A separação, possível nos novos media, dos conteúdos dos dispositivos que os suportam, introduziu uma variável nova na cadeia de valor dos media. Neste momento qualquer conteúdo digital pode estar presente em qualquer suporte. Se fizermos o exercício de recuar 20 anos podemos observar que os conteúdos existiam de acordo com determinada plataforma. O vídeo, por exemplo, era um conteúdo exclusivo para televisão. Os formatos de compressão vídeo e audio permitem neste momento que a sua distribuição por diversas plataformas seja possível. A descontextualização dos conteúdos dos seus suportes e dos seus locais de consumo habituais é uma realidade possibilitada pelos novos media. Neste sentido, a medição de audiências terá que acompanhar este processo de multiplicação de dispositivos. A convergência dos métodos de medição de audiências terá necessariamente que constituir o próximo passo no âmbito do mercado de audiências comerciais.
Resumo:
Num mundo cada vez mais globalizado, mais de metade da população (54%) reside em áreas urbanas. Espera-se que este valor alcance os 66% em 2050, o que se reflecte num acelerado processo de urbanização do planeta nas últimas seis décadas. Enquanto o planeta se torna cada vez mais urbano, surgem desafios ao seu desenvolvimento sustentável em centros urbanos, com particular incidência nas cidades de países em desenvolvimento. Tal exige que sejam adoptadas políticas integradas para melhorar a qualidade de vida da sua população. As regiões do continente africano e asiático são as que apresentam a taxa de urbanização mais acelerada do mundo. Em África espera-se que mais de 50% do continente esteja urbanizado em 2040. Em menos de um século, a população rural mundial decresceu de 80% para 45%. Numa altura em que a maioria da população africana (62,1%) contínua ainda rural, e o crescimento urbano atinge os 4% por ano, a pobreza contínua um fenómeno massivo nos países em vias de desenvolvimento, representando 70% da população. Neste sentido, esta dissertação tem como objectivo compreender os modelos e os processos para a infraestruturação das áreas rurais nos países em desenvolvimento. Decorrente desse estudo é proposta uma abordagem metodológica que, tendo por base um conjunto de indicadores, se avalia e analisa o caminho da urbanização nas áreas rurais. A urbanização das grandes cidades africanas tende a concentrar-se de forma desordenada, desequilibrada e sem capacidade de absorver novos emigrantes. O fracasso do planeamento urbano e do sector da construção, no que diz respeito às habitações, conduziu ao desenvolvimento de subúrbios não infraestruturados. A expectativa de obter melhor qualidade de vida nestas áreas raramente se torna realidade, e os emigrantes deparam-se com habitações de caracter provisório, inadequado acesso a serviços básicos e falta de oportunidades de emprego. O fluxo migratório rural-urbano pode ser minimizado se forem criadas alternativas compensadoras e competitivas de urbanização nas áreas rurais. Concluiu-se que a adopção de um conjunto de parâmetros e indicadores pode potenciar o desenvolvimento de um guia orientador para equipas de planeamento e identidades oficiais que pretendam construir um modelo para urbanização em áreas rurais, com especial destaque para regiões Africanas.
Resumo:
Neste trabalho, são apresentados e discutidos os procedimentos prescritos no Eurocódigo 3, Parte 1-8, para cálculo e dimensionamento de ligações pilar-viga com chapa de extremidade, em estruturas de aço. Em particular, é analisado o método das componentes, que permite determinar a resistência e rigidez rotacional de juntas metálicas, possibilitando a utilização de ligações semi-rígidas, que frequentemente resultam em ligações mais económicas. A metodologia descrita é aplicada em dois exemplos numéricos, tendo-se comparado os valores calculados com os resultados obtidos através de um programa de cálculo automático (Powerconnect) que também se baseia no método das componentes. As análises efetuadas permitem constatar que existem algumas vertentes do programa que podem ser melhoradas. Recorreu-se ainda a um programa de cálculo automático comercial (Sap2000) para comparar os esforços atuantes numa estrutura metálica com ligações rígidas e semi-rígidas, tendo-se concluído que existem diferenças significativas entre as distribuições de esforços obtidas para as duas situações.
Resumo:
Num mundo em crescente evolução é necessário tentar melhorar as condições de saúde global. Um factor importante para a prevenção e tratamento de doenças é o seu correcto diagnóstico. Uma vez que nem todos os países têm a mesma capacidade económica, existe a necessidade de se criar testes rápidos e baratos que possam ser acessíveis no mundo inteiro. Os point-of-care tests, como é o caso dos biossensores de glucose vastamente utilizados na monitorização da diabetes, apresentam uma solução para este problema. Os biossensores impressos em papel, em particular, são uma ferramenta que pode vir a ser muito útil na construção destes testes rápidos tornando-os mais “amigos do ambiente” e reduzindo os seus custos. O objectivo deste trabalho foi desenvolver biossensores enzimáticos, de segunda geração, impressos em papel e baseados na enzima glucose oxidase, para a detecção da glucose. Inicialmente foi feito um estudo de possíveis mediadores a utilizar, tendo-se escolhido o ferroceno por apresentar um limite de detecção adequado, ter apresentado um valor de potencial de redução relativamente baixo, 0.232 V vs pseudo ref. Ag/AgCl, ser um composto fácil de obter e com custos reduzidos. Os dispositivos baseiam-se em canais microfluídicos, eléctrodos e ligações eléctricas fabricadas em substrato de papel, utilizando as técnicas de impressão a cera, screen printing e inkjet printing. O circuito constituinte destes dispositivos foi feito recorrendo a tintas condutoras, sendo que, à tinta utilizada para o eléctrodo de trabalho foi incorporado o ferroceno. Sobre o eléctrodo de trabalho foi impressa glucose oxidase, utilizando a técnica de inkjet printing. Os eléctrodos fabricados apresentaram resposta à glucose, muito embora com baixa reprodutibilidade, podendo esta ser causada pela falta de controlo na preparação dos mesmos (manufactura manual e variabilidade da viscosidade da pasta usada no eléctrodo de trabalho). A técnica de inkjet printing em enzimas é ainda muito recente, existindo ainda alguns aspectos, como o seu efeito na actividade da enzima, que não foram avaliados neste projecto, mas que no futuro deverão ser estudados. Podemos concluir que, os eléctrodos deram uma resposta electroquímica consistente à adição de glucose, 8 mM- 30 mM, sendo que os mesmos foram reconhecidos no glucómetro comercial TRUETrackTM blood glucometer; no entanto, os valores de corrente dos dispositivos estavam abaixo do limite de detecção do instrumento.
Resumo:
O Ciberespaço alterou o paradigma da segurança e defesa internacional, obrigou à adoção de novas estratégias, metodologias de ação e capacidade tecnológica. A sua transversalidade aos diversos outros meios dotam-no simultaneamente de características e capacidades próprias que extrapolam o que se poderia imaginar à vinte anos atrás. Desta forma surgiu a necessidade de uma cooperação internacional mais intensa e eficaz, que promovesse uma ação multi ou transnacional conjunta, que fizesse face ao crescendo de ameaças no ciberespaço. No presente trabalho iremos abordar este tema, elaborando também de que forma este novo meio influenciou a balança de poderes internacional e qual a premência de estabelecimento de fronteiras que garantam delimitações físicas e legais idênticas às existentes fora o ciberespaço.
Resumo:
As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.
Resumo:
A estimação das provisões para sinistros é de extrema importância na atividade de uma seguradora do ramo Não Vida, porque, por um lado, são necessários recursos suficientes para garantir o pagamento de qualquer sinistro que ocorra e, por outro, o excesso de provisões pode condicionar a rentabilidade da companhia. Assim, faz parte do papel do atuário garantir a adequação destas provisões técnicas. Com esse propósito, é habitualmente utilizado o método determinístico Chain Ladder para a estimação das provisões para sinistros. Contudo, de forma a contornar as limitações desta metodologia, recorre-se a modelos estocásticos, como o modelo proposto por Thomas Mack, uma aplicação dos Modelos Lineares Generalizados, a técnica Bootstrap, entre outros. Dos modelos estocásticos é de salientar um dos mais recentemente estudados, Double Chain Ladder, que está diretamente associado ao método Chain Ladder, trazendo algumas vantagens sobre esse último e possibilitando também a aplicação da técnica Bootstrap e uma simples associação ao método Bornhuetter-Ferguson. O objetivo desta dissertação consiste na aplicação e análise destes modelos na estimação de provisões para sinistros no ramo Não Vida.