999 resultados para Análise gráfica de base de conhecimento
Resumo:
Este trabalho tem como objectivo a criação de modelos, resultantes da aplicação de algoritmos e técnicas de mineração de dados, que possam servir de suporte a um sistema de apoio à decisão útil a investidores do mercado de capitais. Os mercados de capitais, neste caso particular a Bolsa de Valores, são sistemas que gera diariamente grandes volumes de informação, cuja análise é complexa e não trivial para um investidor não profissional. Existem muitas variáveis que influenciam a decisão a tomar sobre a carteira de acções (vender, manter, comprar). Estas decisões têm como objectivo a maximização do lucro. Assim, um sistema que auxilie os investidores na tarefa de análise será considerado uma mais-valia. As decisões de um profissional são normalmente baseadas em dois tipos de análise: Fundamental e Técnica. A Análise Fundamental foca-se nos indicadores da “saúde financeira” da empresa, tendo como base a informação disponibilizada pela mesma. Por outro lado , a Análise Técnica, que será o foco deste trabalho, assenta na observação de indicadores estatísticos construídos com base no comportamento passado da acção. O recurso a estas análises permite aos investidores obterem alguma informação sobre a tendência da acção (subida ou descida). As análises apresentadas requerem um bom conhecimento do domínio do problema e tempo, o que as torna pouco acessíveis, sobretudo para os pequenos investidores. Com o intuito de democratizar o acesso a este tipo de investimentos, este trabalho, recorre a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais que possam servir de base à construção de um modelo de suporte a obstáculos que podem impedir o investidor comum de entrar na Bolsa, designadamente o tempo gasto na análise e a complexidade da mesma, entre outros. Para a criação de modelos capazes de responder às expectativas, são realizados diversos ensaios recorrendo a vários algoritmos e conjuntos de dados, na busca do que melhor se adequa ao problema. Contudo é de ressalvar que a decisão de investimento estará sempre do lado do investidor, uma vez que o modelo deve permitir unicamente alimentar um sistema de apoio.
Resumo:
O Ministério da Saúde, considerando a existência de falhas do ponto de vista quantitativo (cobertura) no registro de nascidos vivos, no Brasil, e a impossibilidade de conhecer a distribuição dos nascidos vivos segundo algumas variáveis importantes sob a óptica clínico/epidemiológica (peso ao nascer, Índice de Apgar, duração da gestação, tipo de parto, paridade, idade e instrução da mãe), implantou em 1990, no Brasil, o Sistema de Informações sobre Nascidos Vivos - SINASC- tendo como documento-base a Declaração de Nascido Vivo - DN - com a finalidade de suprir essas lacunas. Com o objetivo de avaliar a cobertura e a fidedignidade das informações geradas pelo SINASC, foi analisada a distribuição dos nascidos vivos hospitalares segundo características epidcmiológicas relativas ao produto de concepção, à gravidez, ao parto e à mãe. A população de estudo compreendeu 15.142 nascidos vivos hospitalares ocorridos em cinco municípios do Estado de São Paulo, Brasil, no período de janeiro a julho de 1992. Os resultados permitiram reconhecer excelente cobertura do SINASC (emissão de DN acima de 99,5%) e ótima fidedignidade do preenchimento das DNs, para a maioria das variáveis, quando comparadas aos documentos hospitalares. Para algumas características foi observada maior fragilidade (Índice de Apgar, duração da gestação, instrução da mãe, número total de filhos tidos e nome do pai). São apresentadas sugestões para o aperfeiçoamento do SINASC e recomendados treinamentos/reciclagens do pessoal envolvido no preenchimento das DNs. O estudo confirma o fato de os dados permitirem análise válida para o conhecimento de aspectos ligados à saúde materno-infantil. Do ponto de vista epidemiológico, o estudo permitiu detectar proporções elevadas de parto operatório (48,4%), mães adolescentes (17,5%) e o valor estimado para o baixo peso ao nascer foi de 8,5%.
Resumo:
A garantia do futuro da vida como a conhecemos, bem como de um hotel está, e será baseada no seu desenvolvimento sustentável, a racionalização dos recursos naturais, a gestão da energia e da água, minimizando o impacto que a sua actividade tem sobre o meio ambiente. A gestão da energia, gestão da água e a reciclagem serão cada vez mais, os vectores principais de todos os projectos, na sua concepção e na fase de exploração. A equipa que gere uma unidade hoteleira deverá ter sempre presente o custo energético por quarto, deve procurar optimizar o consumo energético, sem afectar o bem-estar do cliente, deve respeitar o meio ambiente, deve ter em consideração, que cada vez mais o cliente irá seleccionar o hotel, não só pelo preço, mas também pelo facto do hotel, respeitar o meio ambiente. Na fase de um novo projecto ou da modernização de uma unidade hoteleira, engenheiros, arquitectos, gestores, técnicos, devem partilhar o conhecimento e desenvolvimento do projecto desde o primeiro dia. No presente trabalho é feita a análise comparativa de diferentes tipos de sistemas de climatização e respectivas centrais de produção de água gelada e quente num hotel, seleccionar soluções, e guiar diferentes entidades, promotor de hotéis, donos de hotéis, arquitectos, empresas de fiscalização, projectistas e instaladores, gestor de exploração, gestor de manutenção. Utilizando o modelo de arquitectura de um hotel existente, onze pisos, com três pisos de zonas comuns, restaurantes, salas de reunião e sete pisos de quartos, com 182 quartos, com o software de origem nos E.U.A., Hourly Air Analysis Program, na versão 4.5, e que utiliza o método de cálculo da American Society of Heating, Refrigerating and Air Conditioning Engineers,, foi efectuado o cálculo de carga térmicas, identificação e caracterização dos sistemas de climatização a estudar , definição de possíveis tipos de centrais de água gelada e quente, simulação energética dos vários sistemas definidos e respectivas tipos de solução de hotéis. Através das simulações efectuadas e através da previsão de consumos pode-se identificar as soluções que apresentam melhor eficiência e as mais amigas do ambiente.
Resumo:
O conhecimento da prevalência de hipertensão arterial sistêmica (HAS) e de seus fatores de risco pode ser de grande valor para orientar o planejamento das políticas de saúde. Para identificar a prevalência de HAS, e sua associação com fatores de risco, foi realizado estudo transversal de base populacional na cidade de Pelotas, no sul do Brasil, onde foram examinadas 1.657 pessoas. A prevalência de HAS foi de 19,8%. Os fatores de risco significativamente associados, após controle para fatores de confusão, foram: cor preta, idade avançada, baixa escolaridade, história paterna e materna de HAS, uso de sal adicional à mesa e obesidade. A classe social, que mostrou forte associação com HAS na análise bivariada, teve seu efeito reduzido na análise multivariada, quando houve ajuste por sexo, cor e idade.
Resumo:
Na sequência das preocupações de ausência dos custos externos na análise de projectos rodoviários, foram realizados diversos estudos (EUNET/SASI, FISCUS, HEATCO, PETS, UNITE, GRACE, IMPACT) com vista a identificar e quantificar os impactes reais das actividades de transporte rodoviário. Nesses projectos foram apresentadas diversas metodologias para quantificação dos custos e também benefícios associados aos sistemas de transporte, nomeadamente das infra-estruturas rodoviárias. Para o efeito foram analisadas várias categorias de custo (custos da infra-estrutura, custos do congestionamento, custos da operação dos veículos, custos dos acidentes, custos do ruído, custos da poluição atmosférica, custos do aquecimento global). Nesta dissertação utilizou-se cinco modelos de determinação de custos de infra-estruturas rodoviárias que posteriormente foram calibrados ao caso português para aplicação em estudo de casos em Portugal de duas formas, avaliação de projectos de infra-estruturas rodoviárias e identificação e fixação de preços, nomeadamente associados às portagens. A avaliação de projectos de infra-estruturas rodoviárias foi realizada através da utilização de indicadores de custos totais e médios, utilizando para o efeito dois modelos: o HDM-4 – Highway Development and Management (PIARC, 2001) e o COBA – Cost Benefit Analysis (TRL, 2004) que utilizam custos totais e um modelo proposto pelo autor com base numa síntese e adaptação de submodelos desenvolvidos nos projectos europeus já referidos que utiliza custos médios. A análise associada à identificação dos custos marginais relevantes para a fixação de preços foi realizada através do modelo desenvolvido no projecto europeu, GRACE – Generalisation of Research on Accounts and Cost Estimation (ITS et al., 2008), e de um modelo proposto pelo autor. Após a adaptação e/ou construção dos modelos, estes foram aplicados ao estudo de três situações específicas em infra-estruturas rodoviárias nacionais. Referem-se intervenções na estrada nacional EN125 que liga Vila do Bispo a Vila Real de Santo António (no Algarve), na auto-estrada A7 que liga Póvoa de Varzim a Vila Pouca de Aguiar (Norte de Portugal) e na auto-estrada A9 que liga o Estádio Nacional em Oeiras a Alverca (região de Lisboa).
Resumo:
Discute-se a base de construção do conceito de risco, a partir da descrição do modelo de inferência causal de Rubin, desenvolvido no âmbito da estatística aplicada, e incorporado por uma vertente da epidemiologia. A apresentação das premissas da inferência causal torna visível as passagens lógicas assumidas na construção do conceito de risco, permitindo entendê-lo "por dentro". Esta vertente tenta demonstrar que a estatística é capaz de inferir causalidade ao invés de simplesmente evidenciar associações estatísticas, estimando em um modelo o que é definido como o efeito de uma causa. A partir desta distinção entre procedimentos de inferência causal e de associação, busca-se distinguir também o que seria a dimensão epidemiológica dos conceitos, em contrapartida a uma dimensão simplesmente estatística. Nesse contexto, a abordagem dos conceitos de interação e confusão toma-se mais complexa. Busca-se apontar as reduções que se operam nas passagens da construção metodológica do risco. Tanto no contexto de inferências individuais, quanto populacionais, esta construção metodológica impõe limites que precisam ser considerados nas aplicações teóricas e práticas da epidemiologia.
Resumo:
Esta dissertação surgiu com o objectivo de se criar uma base de dados de Toners para impressoras e fotocopiadoras e um método fiável de comparação de espectros para estudos forenses e de investigação criminal. Para viabilizar o estudo, efectuou-se à priori a recolha de várias amostras de Toners, de diferentes marcas, de cartuchos originais e remanufacturados aplicando de seguida dois métodos de análise distintos: a Espectroscopia de infravermelho com transformada de Fourier (FT-IR) e a Espectroscopia de Absorção-Reflexão (ATR - Reflectância total atenuada). A espectroscopia FT-IR permitiu obter a base de dados de espectros em suporte KBr e usando o software OPUS, das várias amostras de Toners dos cartuchos originais e remanufacturados recolhidas. Para se criar o método de comparação entre espectros, realizou-se o mesmo procedimento mas agora para amostras obtidas por raspagem de um papel impresso /quadrados 2x2), bem como para o papel de impressão para se poder descontar este da amostra. Dado que o interesse desta análise se remetia ao estudo de textos escritos, efectuou-se a análise de um texto padrão por Espectroscopia FT-IR. O método foi utilizado à posteriori como método de comparação e uma alternativa (não destrutiva) ao método de FT-IR para se aplicar a casos reais. Os espectros foram obtidos num microscópio usando o silício como acessório ATR e o software OMNIC. Finalizado o estudo pode-se concluir, quanto à espectroscopia FT-IR, que as amostras da marca HP e Minolta apresentaram espectros muito semelhantes, quando se faz uma análise global dos mesmos. No entanto, as restantes marcas são também muito parecidas entre si, mas ainda é possível encontrar algumas distinções quando se efectua a comparação visual principalmente abaixo da zona de impressão digital (<6000 cm-1). Relativamente aos Toners remanufacturados, constata-se que são muito semelhantes e que diferem da marca original apenas pelo elevado grau de humidade que possuem. No que diz respeito ao método ATR, verificou-se que apesar de ser um método não destrutivo da amostra revela-se bastante limitado, devido ao uso do cristal de Silício como acessório que só atinge comprimentos de onda entre 4000-1500cm-1.
Resumo:
Objetivou-se preencher as lacunas no tipo de informação necessária sobre mortalidade para estabelecimento de correlações entre saúde, urbanização e meio ambiente. As estatísticas produzidas baseiam-se na análise de dados de registros contínuos, dados de pesquisas, relatórios e censos populacionais. Dados socioeconômicos foram utilizados para construir um indicador composto para cada distrito e subdistrito fornecendo a base para a construção de quatro zonas socioeconômicas. São apresentados diferenciais de mortalidade entre essas zonas, distribuídos por quatro grupos de causas e cinco grandes grupos etários. O zoneamento urbano mostrou que 43,8% da população da cidade de São Paulo vive em áreas com as piores condições socioeconômicas. Os dados de saúde demonstraram que pessoas vivendo nessas áreas tinham padrão de mortalidade mais elevado que aquelas vivendo em áreas com melhores condições socioeconômicas. Analisa-se a sobremortalidade entre as zonas socioeconômicas e sugere-se este enfoque como instrumento útil para a definição de prioridades na alocação de recursos de saúde.
Resumo:
Apresenta-se um sistema computacional, denominado ICADPLUS, desenvolvido para elaboração de banco de dados, tabulação de dados, cálculo do índice CPO e análise estatística para estimação de intervalos de confiança e comparação de resultados de duas populações.Tem como objetivo apresentar método simplificado para atender necessidades de serviços de saúde na área de odontologia processando fichas utilizadas por cirurgiões dentistas em levantamentos epidemiológicos de cárie dentária. A característica principal do sistema é a dispensa de profissional especializado na área de odontologia e computação, exigindo o conhecimento mínimo de digitação por parte do usuário, pois apresenta "menus" simples e claros como também relatórios padronizados, sem possibilidade de erro. Possui opções para fichas de CPO segundo Klein e Palmer, CPO proposto pela OMS, CPOS segundo Klein, Palmer e Knutson, e ceo. A validação do sistema foi feita por comparação com outros métodos, permitindo recomendar sua adoção.
Resumo:
Os aditivos alimentares desempenham um papel vital na indústria alimentar moderna e são geralmente utilizados na manutenção da qualidade e das características dos alimentos, promovendo desta forma a segurança alimentar. Para garantir o consumo seguro de alimentos com aditivos, os Estados Membros da União Europeia devem estabelecer um sistema regular de vigilância para monitorização desse consumo. No sentido de obter essa informação, é necessário aplicar métodos de análise robustos de modo a quantificar os níveis dessas substâncias numa larga variedade de matrizes alimentares. O presente trabalho teve como objectivos: a determinação analítica do tipo e do teor de aditivos alimentares nos novos refrigerantes à base de água mineral através de um método de HPLC baseado na norma EN 12856, a validação do método analítico para a quantificação dos edulcorantes (acessulfame K, aspartame e sacarina) e dos conservantes (ácido sórbico e ácido benzóico) e a comparação dos resultados obtidos com os valores máximos permitidos pela legislação portuguesa. Dos refrigerantes à base de água existentes no mercado português, foram analisadas 34 amostras de diferentes marcas, para determinação do tipo e teor de aditivos. Na validação da metodologia foram avaliados os seguintes parâmetros: gama de trabalho, linearidade, sensibilidade, limite de detecção (LD), limite de quantificação (LQ), precisão (repetibilidade e precisão intermédia) e exactidão. Relativamente à análise dos edulcorantes, verificou-se a presença do acessulfame K em 12 refrigerantes numa concentração que oscilou entre 34 e 94 mg/L. O aspartame foi encontrado apenas em 5 amostras num intervalo de concentração de 36 a 159 mg/L e a sacarina não foi detectada. No caso dos conservantes, o ácido sórbico foi encontrado em 19 dos refrigerantes numa gama de concentração entre 109 e 283 mg/L enquanto que o ácido benzóico, presente em 18 amostras, apresentou um teor que variou entre 91 e 143 mg/L. Observou-se ainda que o teor de cada um dos aditivos nos diferentes refrigerantes não excedeu o limite máximo legislado.
Resumo:
A actividade de construção civil é responsável por grande parte dos resíduos produzidos, nomeadamente em obras de construção, demolições de edifícios ou derrocadas, operações de manutenção, restauro, remodelação e reabilitação de construções. A gestão dos resíduos deste sector, abreviadamente designada por resíduos de construção e demolição (RCD), passou a estar regulada, através de regime de operações de gestão de RCD. Este diploma, define entre outras, a responsabilidade dos vários intervenientes no processo de gestão de resíduos, fase de projecto, execução, transporte e recepção. Com a evolução das preocupações ambientais da população e maior envolvência das empresas na contribuição para uma gestão integrada de resíduos, existe um crescente desenvolvimento de estudos no âmbito de caracterização de quantidades e tipos de resíduos produzidos pelo sector. Neste contexto, e por ser importante uma economia integrada com a gestão de resíduos, os principais desafios passam pelo planeamento e preparação de Obra desde da fase de projecto à fase de execução, com vista à prevenção, redução, reutilização e valorização dos RCD. O presente trabalho pretende contribuir para este desenvolvimento do sector, mais concretamente na obtenção de indicadores de resíduos de construção (RC), resíduos de demolição (RD) e caracterização da tipologia destes. Para tanto, foi feita uma avaliação dos estudos desenvolvidos no âmbito de caracterização dos tipos de resíduos e indicadores de RC e RD, como método comparativo. Os indicadores deste estudo foram obtidos com base na análise de dados de casos de estudo, no caso concreto RC, de obras de estruturas, e RD de edifícios com execução de demolição selectiva. Na parte final deste estudo apresentam-se algumas conclusões e recomendações.
Resumo:
De entre todos os paradigmas de aprendizagem actualmente identificados, a Aprendizagem por Reforço revela-se de especial interesse e aplicabilidade nos inúmeros processos que nos rodeiam: desde a solitária sonda que explora o planeta mais remoto, passando pelo programa especialista que aprende a apoiar a decisão médica pela experiencia adquirida, até ao cão de brincar que faz as delícias da criança interagindo com ela e adaptando-se aos seus gostos, e todo um novo mundo que nos rodeia e apela crescentemente a que façamos mais e melhor nesta área. Desde o aparecimento do conceito de aprendizagem por reforço, diferentes métodos tem sido propostos para a sua concretização, cada um deles abordando aspectos específicos. Duas vertentes distintas, mas complementares entre si, apresentam-se como características chave do processo de aprendizagem por reforço: a obtenção de experiência através da exploração do espaço de estados e o aproveitamento do conhecimento obtido através dessa mesma experiência. Esta dissertação propõe-se seleccionar alguns dos métodos propostos mais promissores de ambas as vertentes de exploração e aproveitamento, efectuar uma implementação de cada um destes sobre uma plataforma modular que permita a simulação do uso de agentes inteligentes e, através da sua aplicação na resolução de diferentes configurações de ambientes padrão, gerar estatísticas funcionais que permitam inferir conclusões que retractem entre outros aspectos a sua eficiência e eficácia comparativas em condições específicas.
Resumo:
OBJETIVOS: Avaliar a confiabilidade e vieses na aplicação do Questionário de Morbidade Psiquiátrica de Adultos (QMPA) a informantes secundários comparando-os com informantes primários. MÉTODO: Foram estimados os índices Kappa para as questões do QMPA em uma amostra de 69 casais selecionados aleatoriamente em uma área da Região Metropolitana de Salvador, Bahia, Brasil. Analisaram-se a magnitude e direção dos vieses com base na variação proporcional da prevalência. Cada entrevistado foi avaliado como informante primário, quando respondia sobre seus próprios sintomas, e como informante secundário, quando respondia sobre o cônjuge. RESULTADOS: O uso de informantes secundários leva a estimativas de morbidade enviesadas, cuja magnitude e direção dependem do gênero do informante. Embora ambos, esposo e esposa tendam a subinformar a presença de sintomas do seu cônjuge, as esposas produzem informações mais confiáveis. CONCLUSÕES: Frente às limitações no uso de informante primários, as esposas ou donas-de-casa podem ser recomendadas como informantes secundárias na aplicação do QMPA em estudos da comunidade.
Resumo:
O objectivo deste trabalho passa pelo desenvolvimento de uma ferramenta de simulação dinâmica de recursos rádio em LTE no sentido descendente, com recurso à Framework OMNeT++. A ferramenta desenvolvida permite realizar o planeamento das estações base, simulação e análise de resultados. São descritos os principais aspectos da tecnologia de acesso rádio, designadamente a arquitectura da rede, a codificação, definição dos recursos rádio, os ritmos de transmissão suportados ao nível de canal e o mecanismo de controlo de admissão. Foi definido o cenário de utilização de recursos rádio que inclui a definição de modelos de tráfego e de serviços orientados a pacotes e circuitos. Foi ainda considerado um cenário de referência para a verificação e validação do modelo de simulação. A simulação efectua-se ao nível de sistema, suportada por um modelo dinâmico, estocástico e orientado por eventos discretos de modo a contemplar os diferentes mecanismos característicos da tecnologia OFDMA. Os resultados obtidos permitem a análise de desempenho dos serviços, estações base e sistema ao nível do throughput médio da rede, throughput médio por eNodeB e throughput médio por móvel para além de permitir analisar o contributo de outros parâmetros designadamente, largura de banda, raio de cobertura, perfil dos serviços, esquema de modulação, entre outros. Dos resultados obtidos foi possível verificar que, considerando um cenário com estações base com raio de cobertura de 100 m obteve-se um throughput ao nível do utilizador final igual a 4.69494 Mbps, ou seja, 7 vezes superior quando comparado a estações base com raios de cobertura de 200m.
Resumo:
Este trabalho ocorre face à necessidade da empresa Helisuporte ter uma perspectiva a nível de fiabilidade das suas aeronaves. Para isso, foram traçados como objectivos de estudo a criação de uma base de dados de anomalias; identificação de sistemas e componentes problemáticos; caracterização dos mesmos, avaliar a condição de falha e, com isto, apresentar soluções de controlo de anomalias. Assim, foi desenvolvida uma metodologia que proporciona tratamento de dados com recurso a uma análise não-paramétrica, tendo sido escolhida a estatística de amostra. Esta irá permitir a identificação dos sistemas problemáticos e seus componentes anómalos. Efectuado o tratamento de dados, passamos para a caracterização fiabilística desses componentes, assumindo o tempo de operação e a vida útil específica de cada um. Esta foi possível recorrendo ao cálculo do nível de fiabilidade, MTBF, MTBUR e taxa de avarias. De modo a identificar as diferentes anomalias e caracterizar o “know-how” da equipa de manutenção, implementou-se a análise de condição de falha, mais propriamente a análise dos modos e efeitos de falha. Tendo isso em atenção, foi construído um encadeamento lógico simples, claro e eficaz, face a uma frota complexa. Implementada essa metodologia e analisados os resultados podemos afirmar que os objectivos foram alcançados, concluindo-se que os valores de fiabilidade que caracterizam alguns dos componentes das aeronaves pertencentes à frota em estudo não correspondem ao esperado e idealizado como referência de desempenho dos mesmos. Assim, foram sugeridas alterações no manual de manutenção de forma a melhorar estes índices. Com isto conseguiu-se desenvolver, o que se poderá chamar de, “fiabilidade na óptica do utilizador”.