1000 resultados para Classificação Automática de Modulação. Correntropia. Rádio Cognitivo
Resumo:
Foi efetuada uma classificação, quanto ao atendimento e exames realizados, dos laboratórios de análises e patologia clínica operando na região metropolitana de Belo Horizonte, MG (Brasil), em 1978. Foram comparadas as 3 categorias de laboratórios (particulares, institucionais e hospitalares), segundo tipos de exames realizados, clientela atendida e pessoal técnico responsável pelos laboratórios. Com base nos resultados obtidos na análise, foi composto um "perfil" típico para cada categoria de laboratório estudado.
Resumo:
O coeficiente de mortalidade perinatal dos 7.392 nascimentos ocorridos nos hospitais de Pelotas, RS, (Brasil) no ano de 1982, foi de 33,7 por 1.000, e 8,8% dos recém-nascidos pesaram menos de 2.500 g. As causas de mortalidade perinatal foram analisadas utilizando-se a classificação simplifícada proposta por Wigglesworth. Trinta e seis por cento dos óbitos perinatais ocorreram antes do início do trabalho de parto (natimortos antepartum), e destes, 60% pesaram mais de 2.000 g. A segunda causa mais importante de morte foi imaturidade, com 31% dos óbitos. Neste grupo, 21% pesaram mais de 2.000 g. Estes achados, assim como as altas taxas de mortalidade perinatal para grupos específicos de peso ao nascer, sugerem que algumas falhas estão ocorrendo no atendimento de saúde da população materno-infantil em Pelotas, tanto em clínicas de pré-natal como no atendimento do parto.
Resumo:
A limitada capacidade dos computadores em processar documentos de texto e consequente di culdade de extracção de informação desses documentos deve-se à dificuldade de processamento de informação não-estruturada. De modo a reduzir essa limitação é necessário aumentar a estrutura dos documentos com que os computadores trabalham. Este trabalho propõe um modelo de classificação de documentos através de um processo de refinamento sucessivo da informação. A cada iteração a informação presente no documento é melhor caracterizada através da aplicação de um classi cador apropriado. O processo de classificação recorre a informação estatística, usando o modelo de classificação de Bayes, sobre documentos ou fragmentos de documentos. O processo de classificação também recorre a técnicas para especificação de padrões de texto, usando expressões regulares para extrair informação que exibe um padrão conhecido. A informação obtida é armazenada em XML, que permite a interrogação de colecções de documentos de modo automático (recorrendo a bases de dados de suporte nativo XML). O XML também é usado para transformar a informação original noutros formatos, como por exemplo o HTML. Este formato pode ser usado para sintetizar a informação de modo melhorar a sua apresentação.
Resumo:
O estudo da fiabilidade é um tema imprescindível para qualquer sistema homem-máquina que pretenda adquirir os melhores índices de segurança e rendimento. Se a fiabilidade dos equipamentos é um campo onde já muito foi estudado, debatido e provado no terreno e onde os novos desenvolvimentos irão apenas acontecer devido aos avanços tecnológicos que permitam melhor predizer as potenciais falhas dos equipamentos, já a fiabilidade humana é uma área de estudo relativamente nova e onde muito há a desenvolver, particularmente devido ás características inatas do ser humano. Ao contrário da evolução tecnológica, onde a melhoria dos materiais e processos obedece a um aperfeiçoamento relativamente gradual e crescente e que pode ser avaliado e melhorado, o comportamento e o aperfeiçoamento do ser humano apresentam dificuldades e complexidades variadas porque o mesmo é único e sofre influências adversas e imprevisíveis do meio em que vive, as quais têm influência directa no seu comportamento. Assim este trabalho académico propõe-se estudar e identificar as principais causas de erros humanos, através do conhecimento adquirido acerca dos processos cognitivos mais comuns do Homem, bem como definir os conceitos e procedimentos adjacentes à fiabilidade humana e às suas principais ferramentas de avaliação.
Resumo:
É descrito o processo de desenvolvimento do sistema de classificação de pacientes internados em hospitais que atendem casos agudos, denominada Diagnosis Relatd Group - DRGs, desenvolvido e difundido por pesquisadores da Universidade de Yale, USA. Esse sistema vem a ser um instrumento que permite a mensuração do produto hospitalar, principalmente sob o ponto de vista gerencial. São apresentadas considerações acerca do que é entendido como produto hospitalar, seguindo nos meandros do desenvolvimento dos primeiros DRGs, até a mais recente revisão do sistema. É descrita sua utilização em alguns países e diversos usos potenciais desse sistema, que abrangem desde o uso para pagamento a instrumento de controle de qualidade.
Resumo:
A análise da mortalidade por causas, bem como da morbidade, necessita de um instrumento que agrupe as doenças segundo características comuns, isto é, uma classificação de doenças. Atualmente está em uso a Classificação Internacional de Doenças da OMS, na sua Nona Revisão. Esta classificação surgiu em 1893; para 1993 está proposta a implantação da Décima Revisão. O trabalho descreve as raízes de uma classificação internacional, fazendo referências a John Graunt, William Farr e Jacques Bertillon bem como à evolução pela qual passou em suas sucessivas revisões. Inicialmente era uma classificação de causas de morte passando a ser, a partir da Sexta Revisão, uma classificação que incluiu todas as doenças e motivos de consultas, possibilitando seu uso em morbidade, sendo que a partir da Décima Revisão se propõe uma "família" de classificações, para os mais diversos usos em administração de serviços de saúde e epidemiologia. O trabalho também apresenta algumas críticas que são feitas à Classificação Internacional de Doenças.
Resumo:
O tema deste trabalho visa abordar a Construção de Edifícios Residenciais de características singulares no mercado da Construção / Imobiliário, nomeadamente no que diz respeito à garantia das características a eles implícitas. Assim, abordam-se conseitos como a diferenciação e customização na construção, a especialização da equipa de trabalho e a classificação de empreendimentos, aqui designados como Super Prime. Um empreendimento Super Prime deve permitir alcançar um modo de vida bastante particular, movido pelo gosto, pela ostentação e pelo prazer. Um produto com estas características deve ser definido pela sua qualidade, exclusividade, criatividade, marca, emoção, autenticidade, prestígio e glamour. Num sector em constante mudança, cada vez mais exigente e competitivo e altamente dependente do mercado económico, facilmente se compreende a necessidade de diferenciação na construção de imóveis e da consciencialização do consumidor para a qualidade dos produtos. No entanto, não existe nenhuma metodologia, quer a nível nacional, quer a nível internacional, que garanta este conceito de classificação de edifícios residenciais. Este facto levou à proposta de uma Metodologia de Classificação de Empreendimentos Super Prime, que se designou por MCESP, e que tem como objectivo principal a verificação do cumprimento dos requisitos técnicos implícitos a estes empreendimentos, possibilitando a sua classificação dentro desse segmento. Desta forma, identificaram-se esses requisitos técnicos, definiu-se uma hierarquia lógica de exigências a cumprir, procedeu-se à distinção qualitativa de cada característica apresentada e obteve-se uma avaliação numérica, gráfica e justificativa. De uma forma geral, a proposta deste método de classificação surge como um critério de diferenciação e de notoriedade para empreiteiros, donos de obra e promotores, aumentando a rentabilidade e competitividade de uma empresa. A sua adopção possibilita a optimização de soluções, o aumento do nível de confiança dos clientes e o aumento de prestígio das suas empresas. Procurou-se igualmente, contribuir para o avanço do conhecimento no campo da tecnologia de construção residencial Super Prime, apoiando a inovação, o desenvolvimento e a personalização, contribuindo para um melhor produto final.
Resumo:
Por razões de segurança, tem vindo a aumentar a utilização de sistemas de videovigilância em espaços públicos. Face a acontecimentos recentes, designadamente a ocorrência de explosões, é importante detectar bagagem abandonada porque poderá ser perigosa. Surge neste contexto a motivação para este trabalho, cujo objectivo é a detecção automática de objectos abandonados num lugar de embarque e desembarque de passageiros. O sistema desenvolvido processa as imagens obtidas pelas câmaras de videovigilância. Para cada câmara, cada imagem é comparada com a respectiva imagem de fundo, determinada inicialmente, para detectar alterações no local. Após processamento para remover efeitos de sombra e pontos espúrios, a representação binária das alterações é projectada no plano do chão e fundida com as outras projecções. Através da análise da fusão das projecções, identificam-se as blobs, designação da representação de passageiros e bagagem neste domínio. A detecção de bagagem abandonada baseia-se na ideia de que isso corresponde à divisão de uma blob em duas, permanecendo uma no local onde ocorreu a bifurcação e tendo havido afastamento da outra. Usando os dados de referência do encontro Performance Evaluation of Tracking and Surveillance, realizado em 2006, discute-se o desempenho do protótipo implementado e a sua parametrização e apresentam-se aspectos de refinamento e implementação da heurística de detecção. Analisada a utilização de imagens de um sistema de videovigilância instalado com outra finalidade, constata-se a forte dependência em relação ao número e disposição das câmaras, que neste caso, se revela desadequada.
Resumo:
A Classificação Internacional de Doenças (CID) provê códigos para todas as doenças e permite que se façam comparações internacionais da morbidade e da mortalidade. Por ser ampla e de uso em locais com características bastante diversas, nem sempre é adequada. Existem revisões periódicas da CID para que esta seja atualizada e as novas doenças descritas sejam incluídas. Foi o que aconteceu com a AIDS, incorporada no capítulo de doenças infecciosas e parasitárias da décima revisão da CID. Por esse motivo, foi avaliado o uso dos códigos da CID-10 na codificação da AIDS. Foram utilizadas as fichas de vigilância epidemiológica de todos os casos diagnosticados em um hospital especializado em doenças infecciosas, em 1994. Verificou-se que nem sempre era possível codificar as fichas apenas com a utilização de um único código, proposto pela CID-10, para a AIDS e suas manifestações e complicações.
Resumo:
Ao me ter sido apresentado o tema focado neste trabalho, a curiosidade apoderou-se de mim para tentar perceber o que eram os algoritmos genéticos, a aprendizagem automática e a aplicação dos algoritmos genéticos sobre este tipo de aprendizagem e onde é que estas técnicas podiam ser aplicadas. Assim, neste trabalho é realizado um estudo destes temas relativamente ao seu funcionamento, aplicabilidade, problemas e soluções existentes, bem como, a comparação entre duas das mais conhecidas abordagens ao nível da aprendizagem automática baseada em algoritmos genéticos. São no fim apresentados programas exemplificativos de implementações de aplicação de algoritmos genéticos a problemas de optimização/descoberta e de aprendizagem automática. Este texto está organizado em cinco capítulos, sendo o primeiro a introdução, o segundo é uma apresentação dos algoritmos genéticos, no terceiro capítulo é apresentada a técnica de aprendizagem automática baseada em algoritmos genéticos, as suas diferentes abordagens e implementações, aplicabilidade e comparação entre abordagens. No quarto capítulo são apresentados alguns exemplos práticos que pretendem demonstrar a forma como se implementam algumas das abordagens referidas nos capítulos anteriores com o intuito de ver o seu funcionamento na prática e comparar diferentes algoritmos no mesmo problema.
Resumo:
A organização automática de mensagens de correio electrónico é um desafio actual na área da aprendizagem automática. O número excessivo de mensagens afecta cada vez mais utilizadores, especialmente os que usam o correio electrónico como ferramenta de comunicação e trabalho. Esta tese aborda o problema da organização automática de mensagens de correio electrónico propondo uma solução que tem como objectivo a etiquetagem automática de mensagens. A etiquetagem automática é feita com recurso às pastas de correio electrónico anteriormente criadas pelos utilizadores, tratando-as como etiquetas, e à sugestão de múltiplas etiquetas para cada mensagem (top-N). São estudadas várias técnicas de aprendizagem e os vários campos que compõe uma mensagem de correio electrónico são analisados de forma a determinar a sua adequação como elementos de classificação. O foco deste trabalho recai sobre os campos textuais (o assunto e o corpo das mensagens), estudando-se diferentes formas de representação, selecção de características e algoritmos de classificação. É ainda efectuada a avaliação dos campos de participantes através de algoritmos de classificação que os representam usando o modelo vectorial ou como um grafo. Os vários campos são combinados para classificação utilizando a técnica de combinação de classificadores Votação por Maioria. Os testes são efectuados com um subconjunto de mensagens de correio electrónico da Enron e um conjunto de dados privados disponibilizados pelo Institute for Systems and Technologies of Information, Control and Communication (INSTICC). Estes conjuntos são analisados de forma a perceber as características dos dados. A avaliação do sistema é realizada através da percentagem de acerto dos classificadores. Os resultados obtidos apresentam melhorias significativas em comparação com os trabalhos relacionados.
Resumo:
O trabalho que a seguir se apresenta tem como objectivo descrever a criação de um modelo que sirva de suporte a um sistema de apoio à decisão sobre o risco inerente à execução de projectos na área das Tecnologias de Informação (TI) recorrendo a técnicas de mineração de dados. Durante o ciclo de vida de um projecto, existem inúmeros factores que contribuem para o seu sucesso ou insucesso. A responsabilidade de monitorizar, antever e mitigar esses factores recai sobre o Gestor de Projecto. A gestão de projectos é uma tarefa difícil e dispendiosa, consome muitos recursos, depende de numerosas variáveis e, muitas vezes, até da própria experiência do Gestor de Projecto. Ao ser confrontado com as previsões de duração e de esforço para a execução de uma determinada tarefa, o Gestor de Projecto, exceptuando a sua percepção e intuição pessoal, não tem um modo objectivo de medir a plausibilidade dos valores que lhe são apresentados pelo eventual executor da tarefa. As referidas previsões são fundamentais para a organização, pois sobre elas são tomadas as decisões de planeamento global estratégico corporativo, de execução, de adiamento, de cancelamento, de adjudicação, de renegociação de âmbito, de adjudicação externa, entre outros. Esta propensão para o desvio, quando detectada numa fase inicial, pode ajudar a gerir melhor o risco associado à Gestão de Projectos. O sucesso de cada projecto terminado foi qualificado tendo em conta a ponderação de três factores: o desvio ao orçamentado, o desvio ao planeado e o desvio ao especificado. Analisando os projectos decorridos, e correlacionando alguns dos seus atributos com o seu grau de sucesso o modelo classifica, qualitativamente, um novo projecto quanto ao seu risco. Neste contexto o risco representa o grau de afastamento do projecto ao sucesso. Recorrendo a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais, descreve-se o desenvolvimento de um modelo que suporta um sistema de apoio à decisão baseado na classificação de novos projectos. Os modelos são o resultado de um extensivo conjunto de testes de validação onde se procuram e refinam os indicadores que melhor caracterizam os atributos de um projecto e que mais influenciam o risco. Como suporte tecnológico para o desenvolvimento e teste foi utilizada a ferramenta Weka 3. Uma boa utilização do modelo proposto possibilitará a criação de planos de contingência mais detalhados e uma gestão mais próxima para projectos que apresentem uma maior propensão para o risco. Assim, o resultado final pretende constituir mais uma ferramenta à disposição do Gestor de Projecto.
Resumo:
O objectivo deste trabalho passa pelo desenvolvimento de uma ferramenta de simulação dinâmica de recursos rádio em LTE no sentido descendente, com recurso à Framework OMNeT++. A ferramenta desenvolvida permite realizar o planeamento das estações base, simulação e análise de resultados. São descritos os principais aspectos da tecnologia de acesso rádio, designadamente a arquitectura da rede, a codificação, definição dos recursos rádio, os ritmos de transmissão suportados ao nível de canal e o mecanismo de controlo de admissão. Foi definido o cenário de utilização de recursos rádio que inclui a definição de modelos de tráfego e de serviços orientados a pacotes e circuitos. Foi ainda considerado um cenário de referência para a verificação e validação do modelo de simulação. A simulação efectua-se ao nível de sistema, suportada por um modelo dinâmico, estocástico e orientado por eventos discretos de modo a contemplar os diferentes mecanismos característicos da tecnologia OFDMA. Os resultados obtidos permitem a análise de desempenho dos serviços, estações base e sistema ao nível do throughput médio da rede, throughput médio por eNodeB e throughput médio por móvel para além de permitir analisar o contributo de outros parâmetros designadamente, largura de banda, raio de cobertura, perfil dos serviços, esquema de modulação, entre outros. Dos resultados obtidos foi possível verificar que, considerando um cenário com estações base com raio de cobertura de 100 m obteve-se um throughput ao nível do utilizador final igual a 4.69494 Mbps, ou seja, 7 vezes superior quando comparado a estações base com raios de cobertura de 200m.
Resumo:
OBJETIVO: Avaliar a confiabilidade da versão para teste do capítulo V - "Transtornos Mentais e do Comportamento", da décima revisão da Classificação Internacional das Doenças, Versão para Cuidados Primários (CID -10 CP), preparado pela Divisão de Saúde Mental da Organização Mundial da Saúde (OMS). MÉTODOS: Durante os meses de setembro e outubro de 1994 foram treinados médicos gerais comunitários (MGC) da Secretaria da Saúde e do Meio Ambiente do Estado do Rio Grande do Sul, no uso da citada versão, preparada para teste de campo, conforme o delineamento proposto pela OMS. RESULTADOS: Os resultados referem-se ao estudo sobre concordância dos diagnósticos atribuídos por 9 duplas de MGC a 440 pacientes de primeira consulta. O Kappa de Cohen para Transtorno de Saúde Mental, presente ou ausente, foi de 0,79 (IC 95%: 0,69 -- 0,88). CONCLUSÃO: O uso da CID-10 CP dará maior especificidade às informações e permitirá maior comunicação entre as equipes de saúde em nível de cuidados primários.