8 resultados para densidade de probabilidade
em ReCiL - Repositório Científico Lusófona - Grupo Lusófona, Portugal
Resumo:
O processo de gestão de risco consiste, no estudo estruturado de todos os aspetos inerentes ao trabalho e é composto pela análise de risco, avaliação de risco e controlo de risco. Na análise de risco, é efetuada a identificação de todos os perigos presentes e a estimação da probabilidade e da gravidade, de acordo com o método de avaliação de risco escolhido. Este estudo centra-se na primeira etapa do processo de avaliação de risco, mais especificamente na análise de risco e nos marcadores de informação necessários para se efetuar a estimação de risco na industria extrativa a céu aberto (atividade de risco elevado). Considerando que o nível de risco obtido, depende fundamentalmente da estimação da probabilidade e da gravidade, ajustada a cada situação de risco, procurou-se identificar os marcadores e compreender a sua influência nos resultados da avaliação de risco (magnitude). O plano de trabalhos de investigação foi sustentado por uma metodologia qualitativa de recolha, registo e análise dos dados. Neste estudo, a recolha de informação foi feita com recurso às seguintes técnicas de investigação: - Observação estruturada e planeada do desmonte da rocha com recurso a explosivos; - Entrevista individual de formadores e gestores de risco (amostragem de casos típicos); Na análise e discussão qualitativa dos dados das entrevistas recorreu-se às seguintes técnicas: - Triangulação de analistas e tratamento de dados cognitiva (técnicas complementares); - Aposição dos marcadores de informação, versus, três métodos de avaliação de risco validados. Os resultados obtidos apontam no sentido das hipóteses de investigação formuladas, ou seja, o tipo de risco influi da seleção da informação e, existem diferenças significativas no nível de risco obtido, quando na estimação da probabilidade e da gravidade são utilizados marcadores de informação distintos.
Resumo:
Os conflitos armados que, ao longo de décadas, constituem fenómenos integrantes do quotidiano de vários países africanos em desenvolvimento, são potenciados e perpetuados pelas situações de pobreza e de declínio económico que os caracteriza. O nexo de causalidade circular entre as guerras civis e o subdesenvolvimento traduz um ciclo vicioso que mantém os países mais pobres reféns da “armadilha do conflito” que os condiciona e dificulta a implementação de medidasde promoção do desenvolvimento. Este ciclo vicioso constitui uma “inversão do desenvolvimento” e evidencia como legado de uma guerra civil a grande probabilidade de ocorrência de uma outra guerra civil. Não obstante a relação de causa-efeito frequentemente estabelecida entre o fraccionamento étnico-linguístico e a ocorrência de conflitos violentos, são os factores de ordem económica (nomeadamente a sobre-dependência relativamente à exportação de recursos naturais de grande valor) os principais elementos indutores da conflitualidade armada em África. Ademais, a propagação transfronteiriça destes conflitos intra-estatais, através dos fenómenos de “spill over” e “spill into”, é maximizada por um conjunto de redes (militares, económicas, políticas e sociais) que se tendem a estabelecer entre estados contíguos. Deste modo, independentemente dos factores, agentes e acções potencialmente na origem dos conflitos, as suas consequências serão internacionalizadas colocando em causa a estabilidade regional.
Resumo:
Este trabalho aborda o problema do desenho de códigos espácio-temporais para sistemas de comunicação multiple-input multiple-output (MIMO) sem fios. Considera-se o contexto realista e desafiante da recepção não-coerente (a realização do canal é desconhecida no receptor). O detector conhecido como generalized likelihood ratio test (GLRT)é implementado no receptor e, ao contrário da maioria das abordagens actuais, permite-se uma estrutura de correlação arbitrária para o ruído gaussiano de observação. Apresenta-se uma análise teórica para a probabilidade de erro do detector, em ambos os regimes assimptóticos de relação sinal-ruído (SNR) alta e baixa. Essa análise conduz a um critério de optimalidade para desenho de códigos e permite uma re-interpretação geométrica do problema abordado como um problema de empacotamento óptimo num producto Cartesiano de espaço projectivos. A construção dos códigos implica a resolução de um problema de optimização não-linear, não-diferenciável e de dimensão elevada, o qual foi abordado aqui em duas fases. A primeira fase explora uma relaxação convexa do problema original para obter uma estimativa inicial. A segunda fase, refina essa estimativa através de um algoritmo iterativo de descida do gradiente ao longo de geodésicas, explorando-se assim a geometria Riemanniana imposta pelas restricões de potência sobre os códigos espáciotemporais. Mostra-se que o desempenho dos novos códigos obtidos por este método excede o das soluções previamente conhecidas. De facto, para algumas configurações particulares, estas novas constelações atingem o limiar de Rankin e são por isso garantidamente óptimas.
Resumo:
A densidade visual da pintura flamenga e holandesa afirmou-se devido a uma nova forma de conceber o mundo e o olhar, fornecendo óptimos exemplos de comparação para com o actual cinema digital, desde as epopeias densamente habitadas por milhares de figurantes em programas de auto-gestão, até à densidade visual das layers de pósprodução. Christine Buci-Glucksmann chamou-lhe “olho cartográfico” e Svetlana Alpers “arte da descrição”. Ambos os conceitos lidam com um olhar nómada, presente também nos panoramas dos séculos XVIII e XIX, devido a enquadramentos arbitrários, mas onde os amplos espaços enquadrados, num ponto de vista ideal, por vezes funcionam como controlo do mundo através da “panoramização” do espaço, que lhe retira o relevo, as profundidades distantes e inacessíveis. Tudo está ao alcance do olho. As imagens tornaram-se semelhantes aos mapas, sendo que estes tinham projectado o mundo num plano. Isto gerou um efeito-superfície que se generalizou, transformando paredes em “peles digitais” e a profundidade na horizontalidade plana electrónica, como defende Buci-Gluksmann.
Resumo:
Para lá da edição de imagem podemos também editar o som: a fase onde se trata e manipula toda a banda sonora do filme (diálogos; música e efeitos). As ideias e as ferramentas de que nos servimos para editar o som implicam consequências óbvias no produto final. Como tal, a edição de som tem também a responsabilidade de fundir correctamente os sons e as imagens. A mistura é uma tarefa específica que pretende preservar, no fundo, densidade e clareza. Como uma lista de prioridades: o que é que queremos que eles ouçam? Um dos objectivos principais da edição de som é a tentativa de obter um certo tipo de relação interessante entre o som e a imagem: pontuação e amplificação são os recursos principais. Queremos – com o som – despoletar uma descoberta das emoções escondidas no íntimo da audiência. Um filme bem editado permite uma excelente partilha entre os sentimentos dos espectadores e os pensamentos e intenções de quem trabalha o som e realiza o filme.
Resumo:
Com a criação da teoria das redes, assistiu-se nos últimos anos a uma revolução científica de carácter interdisciplinar Não é uma teoria inteiramente nova, tendo sido precedida pela criação por P. Erdvos, nos anos sessenta, da teoria dos grafos aleatórios. Esta última é uma teoria puramente matemática, donde termos escrito “grafo” em lugar de “rede”. Apenas recentemente podemos falar de uma efectiva teoria das redes reais, e isso devido ao abandono de algumas das ideias essenciais avançadas por Erdvos, em especial a ideia de partir de um conjunto previamente dado de nós, os quais de seguida vão sendo conectados aleatoriamente com probabilidade p. Este quadro geral começou a ser modificado pelo chamado modelo dos “mundo-pequenos” proposto em 1998 por Duncan Watts e Steve Strogatz, modificação que se tornou ainda mais radical quando, em 1999, Albert Barabási e colaboradores propuseram um modelo no qual os nós vão progressivamente nascendo e conectados por uma função de preferência: um nó conecta-se em proporção às ligações que os outros nós já possuem, pelo que quantas mais ligações um nó possui maior a probabilidade de receber ulteriores ligações.
Resumo:
RESUMO: No presente estudo é investigada a existência de relações entre a psicopatia e os traços de personalidade em estudantes universitários. Este estudo tem como objectivo o estabelecimento de correlações entre os traços psicopáticos e as dimensões da personalidade decorrentes do Modelo dos Cinco Factores em estudantes universitários. A amostra é constituída por 400 estudantes universitários, provenientes de várias universidades da zona de Lisboa, de vários cursos universitários e de ambos os sexos, de forma aleatória. As idades dos sujeitos constituintes da amostra estão compreendidas entre os 17 e os 46 anos de idade (M = 24,26 e DP = 4,435). Por forma a atingir o objectivo proposto para este estudo, recorreu-se à aplicação de um questionário sócio-demográfico e de três medidas de avaliação, nomeadamente: a Escala PDS (Paulhus Deception Scale) de Delroy L. Paulhus, Ph.D. (1998), a Escala LSRP (Levenson Self-Report Psychopathy Scale) de Levenson, Kiehl e Fitzpatrick (1995) e o Inventário NEO-PI-R (Inventário de Personalidade NEO Revisto) de Costa e McCrae (1992), sendo que existe a aferição desta medida de avaliação para a população portuguesa dos autores Lima e Simões (1997). De acordo com os resultados obtidos, podemos constatar que existem associações significativas entre as dimensões da Personalidade e as dimensões da Psicopatia. Verificou-se que os indivíduos que possuem índices elevados de Neuroticismo e baixos indíces de Extroversão e Abertura à Experiência possuem uma maior propensão para apresentarem características psicopáticas. Por outro lado, também se constatou que os indivíduos que possuem baixos índices de Amabilidade e Conscienciosidade apresentam também uma maior probabilidade de possuírem características psicopáticas. ABSTRACT: In the present study, it is investigated the existence of relationships between psychopathy and personality traits in university students. The goal of this study is the establishment of correlations between psychopathic traits and the personality dimensions, recurring from the five factor model in university students. The sample is composed by 400 university students, from various universities in the Lisbon area, from different courses and from both genders, randomly picked. The ages of the subjects in the sample are in between 17 and 46 years old (M = 24,26 and SD = 4,435). By means of reaching the goal proposed for this study, there were applied a socio-demographic questionnaire and three evaluation measures, namely the PDS Scale (Paulhus Deception Scale) from Delroy L. Paulhus, Ph.D. (1998), the LSRP Scale (Levenson Self-Report Psychopathy Scale) from Levenson, Kiehl e Fitzpatrick (1995) and the NEO-PI-R Inventory (Revised NEO Personality Inventory) from de Costa e McCrae (1992), as there is an admeasurement from this measure for the portuguese population from authors Lima e Simões (1997). Considering the obtained results, we can state that there exist significant associations between the Personality dimensions and the Psychopathy dimensions. It was verified that the individuals that possess high indexes of Neuroticism and low indexes of Extroversion and Openness, have a higher propensity to present psychopathic characteristics. On the other hand, it was also found that the individuals that possess low indexes of Lovability and Consciousness also present a higher probability of having psychopathic characteristics.
Resumo:
RESUMO: Hoje em dia o software tornou-se num elemento útil na vida das pessoas e das empresas. Existe cada vez mais a necessidade de utilização de aplicações de qualidade, com o objectivo das empresas se diferenciarem no mercado. As empresas produtoras de software procuram aumentar a qualidade nos seus processos de desenvolvimento, com o objectivo de garantir a qualidade do produto final. A dimensão e complexidade do software aumentam a probabilidade do aparecimento de não-conformidades nestes produtos, resultando daí o interesse pela actividade de testes de software ao longo de todo o seu processo de concepção, desenvolvimento e manutenção. Muitos projectos de desenvolvimento de software são entregues com atraso por se verificar que na data prevista para a sua conclusão não têm um desempenho satisfatório ou por não serem confiáveis, ou ainda por serem difíceis de manter. Um bom planeamento das actividades de produção de software significa usualmente um aumento da eficiência de todo o processo produtivo, pois poderá diminuir a quantidade de defeitos e os custos que decorrem da sua correcção, aumentando a confiança na utilização do software e a facilidade da sua operação e manutenção. Assim se reconhece a importância da adopção de boas práticas no desenvolvimento do software. Para isso deve-se utilizar uma abordagem sistemática e organizada com o intuito de produzir software de qualidade. Esta tese descreve os principais modelos de desenvolvimento de software, a importância da engenharia dos requisitos, os processos de testes e principais validações da qualidade de software e como algumas empresas utilizam estes princípios no seu dia-a-dia, com o intuito de produzir um produto final mais fiável. Descreve ainda alguns exemplos como complemento ao contexto da tese. ABSTRACT: Nowadays the software has become a useful element in people's lives and it is increasingly a need for the use of quality applications from companies in order to differentiate in the market. The producers of software increase quality in their development processes, in order to ensuring final product quality. The complexity and size of software, increases the probability of the emergence of non-conformities in these products, this reason increases of interest in the business of testing software throughout the process design, development and maintenance. Many software development projects are postpone because in the date for delivered it’s has not performed satisfactorily, not to be trusted, or because it’s harder to maintain. A good planning of software production activities, usually means an increase in the efficiency of all production process, because it can decrease the number of defects and the costs of it’s correction, increasing the reliability of software in use, and make it easy to operate and maintenance. In this manner, it’s recognized the importance of adopting best practices in software development. To produce quality software, a systematic and organized approach must be used. This thesis describes the main models of software development, the importance of requirements engineering, testing processes and key validation of software quality and how some companies use these principles daily, in order to produce a final product more reliable. It also describes some examples in addition to the context of this thesis.