887 resultados para Algoritmo Boosting


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O entendimento da manufatura celular passa pelo estudo das rotas de fabricação e pelos métodos de agrupamento de máquinas e de peças. Neste contexto, o objetivo principal deste trabalho é a implemetação de uma ferramenta de auxílio ao projeto de células de manufatura, abordando uma metodologia fundamentada na Tecnologia de Grupo para agrupamento de máquinas em células de manufatura com as respectivas famílias de peças. A base de dados com as informações das peças, das máquinas e das rotas que compõe o fluxo de produção é implementada em um banco de dados relacional. A matriz incidência peça-máquina é montada a partir das rotas armazenadas no banco de dados através de um aplicativo desenvolvido em Visual Basic. Os agrupamentos em famílias de peças e células de manufatura são gerados por três diferentes algoritmos: o Rank Order Clustering (ROC), o Close Neighbor Algorithm (CNA) e um algoritmo heurístico (HEU). São aplicadas restrições referentes a limite de carregamento, tamanho de célula e resolução de situações de “gargalo”. Processados os algoritmos de agrupamento, são analisados os resultados em função da densidade e da eficiência do agrupamento. O sistema apresenta o resultado final em planilhas no formato MS Excel. A primeira planilha, chamada resultados, exibe os valores das restrições de projeto das células (número de máquinas por célula, tempo limite de carregamento e tempo limite para duplicação da máquina), o número de peças (colunas) e de máquinas (linhas) da matriz incidência, os valores de eficiência do agrupamento de peças, do agrupamento de máquinas e do aproveitamento dos recursos, bem como o número de células independentes e a quantidade de máquinas duplicadas, obtidos por cada algoritmo no sistema, destacando os melhores resultados. A segunda planilha mostra a matriz incidência peça-máquina. As demais planilhas apresentam, respectivamente, a matriz diagonalizada com o algoritmo original (ROC e CNA), a matriz diagonalizada levando-se em consideração as restrições de projeto das células (análise ROC, análise CNA e HEU) e por fim, uma planilha relatório. A planilha relatório tabula os mesmos valores citados na primeira planilha e lista as peças associadas a cada família, as máquinas associadas a cada célula, as peças rejeitadas, por não se enquadrarem nos agrupamentos, e que devem ser tratadas fora do ambiente celular e as máquinas duplicadas. A comparação dos resultados é efetuada considerando as características adicionadas aos algoritmos originais. Dos três estudados, as restrições de projeto são tratadas na implementação do HEU. Os demais, ROC e CNA, têm incorporado um pós processamento. Em análises comparativas observa-se a superioridade dos algoritmos ROC e HEU em relação ao CNA e os resultados do ROC são melhores ou iguais aos demais, dificilmente inferiores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude dos choques exógenos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A variação temporal e espacial da ecologia de lagos, estuários e reservatórios está relacionada com a variação na composição da população de fitoplâncton, já que esta comunidade é a base da cadeia alimentar marinha e lacustre. Esta pesquisa desenvolveu um modelo para estimativa da dinâmica de biomassa de fitoplâncton, considerando os mecanismos de transporte no meio aquático, crescimento e perdas de sua biomassa. O modelo possui três módulos: (a) hidrodinâmico, que trata dos fluxos quantitativos do meio, associado a um algoritmo de secagem/inundação; (b) de transporte, que trata dos mecanismos de transporte das substâncias no meio; e (c) biológico, que retrata os mecanismos biológicos relacionados ao fitoplâncton. O módulo hidrodinâmico foi resolvido por um esquema semi-implícito de diferenças finitas, com uma abordagem mista Euleriana-Lagrangiana para os termos advectivos. Para os módulos restantes foi utilizado um esquema mais simples, de diferenças centrais. O modelo foi aplicado no sistema formado pela Lagoa Mangueira e Banhado do Taim localizado na parte sul costeira do estado do Rio Grande do Sul. Este sistema está inserido no Sistema Hidrológico do Taim como unidade de conservação federal, onde se desenvolve o projeto PELD (Pesquisas Ecológicas de Longa Duração). A hidrodinâmica do sistema foi ajustada e verificada apresentando bons resultados. Testes de secagem e inundação mostraram que as tendências esperadas foram obtidas. O aprimoramento da solução numérica do modelo foi comprovado através de testes de preservação de volume e massa em sistemas conservativos. A análise de sensibilidade dos parâmetros do módulo biológico mostrou que os parâmetros para os quais o modelo é mais sensível a alterações são aqueles relacionados aos efeitos de temperatura nas algas e as perdas por respiração e consumo por zooplâncton. Os cenários de análise propostos proporcionaram uma maior compreensão do transporte do material particulado suspenso e do material escalar genérico, assim como a dinâmica e as florações de algas no sistema em condições físicas e meteorológicas reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os objetivos da presente tese de doutorado foram os de buscar novos antipsicóticos atípicos de baixo preço comercial e também procurar entender o mecanismo de ação que leva a um perfil antipsicótico atípico. Os resultados da tese são divididos em duas partes, de acordo com sua natureza, em experimentais (primeira parte) e teóricos (segunda parte). Para o desenvolvimento da primeira parte, foi necessária primeiramente a programação de um software para medir locomoção em roedores após filmagem com webcam. A seguir, foram investigados os efeitos da guanosina, flunarizina e cinarizina em modelos animais de psicose, bem como em outros paradigmas comportamentais. A guanosina foi escolhida para estudo uma vez que tem se mostrado que ela interage com o sistema glutamatérgico – que sabidamente está envolvido na fisiopatologia da esquizofrenia – promovendo a captação astrocitária de glutamato. Já a flunarizina e a cinarizina, dois bloqueadores de canal de cálcio empregados para tratar enxaqueca e vertigem foram escolhidas pelo fato delas produzirem sinais e sintomas extrapiramidais em pacientes idosos, o que posteriormente foi relacionado às suas propriedades como antagonistas moderados dos receptores dopaminérgicos do tipo D2 A guanosina diminuiu o aumento de locomoção induzido por um antagonista NMDA (MK-801), enquanto que não apresentou efeito sobre o aumento de locomoção induzido por anfetamina, de forma que sua utilidade como potencial antipsicótico deve ser ainda melhor estudada. Tanto a flunarizina quanto a cinarizina foram capazes de diminuir o aumento de locomoção induzido por MK-801 e por anfetamina em doses que não causam efeitos catalépticos importantes. Portanto, foi concluído que estes dois compostos apresentam um potencial perfil de antipsicótico atípico, com as vantagens de já estarem disponíveis para uso comercial, boa tolerabilidade e baixo custo quando comparados com os antipsicóticos atípicos disponíveis comercial. A segunda parte da tese apresenta alguns resultados teóricos matemáticos que podem ser derivados da teoria da lei de ação das massas aplicada ao binding de receptores, utilizando também resultados experimentais já conhecidos de PET Estes resultados apresentam insights ao entendimento das diferenças entre os perfis antipsicóticos atípicos e típicos em relação à geração de sinais extrapiramidais. É discutido que fatores culturais e comerciais relacionados à posologia atual empregada no tratamento com antipsicóticos típicos podem ser os responsáveis pelas diferenças de perfis, uma vez que alguns deles são prescritos em doses proporcionalmente maiores em relação à sua afinidade, atingindo assim maiores níveis de bloqueio dopaminérgico no estriado. Uma curta meia-vida plasmática também é apontada como um possível parâmetro importante na geração de um perfil atípico. É mostrado ainda alguns erros de concepção relacionados ao curso temporal da ocupação dopaminérgica que tem sido atualmente cometidos na literatura científica, como o conceito de meia-vida de ocupação de receptores. Como um último resultado teórico, é proposto um algoritmo para a redução de dose em pacientes tratados com antipsicóticos apresentando sinais e sintomas extrapiramidais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é desenvolvida uma versão do modelo de Aiyagari (1994) com choque de liquidez. Este modelo tem Huggett (1993) e Aiyagari (1994) como casos particulares, mas esta generalização permite dois ativos distintos na economia, um líquido e outro ilíquido. Usar dois ativos diferentes implica em dois retornos afetando o "market clearing", logo, a estratégia computacional usada por Aiyagari e Hugget não funciona. Consequentemente, a triangulação de Scarf substitui o algoritmo. Este experimento computacional mostra que o retorno em equilíbrio do ativo líquido é menor do que o retorno do ilíquido. Além disso, pessoas pobres carregam relativamente mais o ativo líquido, e essa desigualdade não aparece no modelo de Aiyagari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Ensino Colaborativo suportado por Computador, conhecido por CSCL (Computer Supported Collaborative Learning), utiliza-se de uma metodologia de ensino em que os alunos trocam idéias sobre assuntos que foram previamente pesquisados. O professor tem a função de moderador onde incentiva e orienta os alunos no processo de aprendizagem através da criação de cenários para motivação dos mesmos, sugerindo artigos e direcionando-os para os pontos mais importantes de cada assunto. Entretanto, para que se possa buscar uma interação apropriada entre o aluno e o ambiente de aprendizagem, se faz necessária à utilização de ferramentas que propiciem um maior controle sobre o sistema, permitindo assim, a monitoração das tarefas executadas pelo usuário, podendo direcioná-lo de forma correta na busca do aprendizado interativo. Busca-se, através deste trabalho, subsidiar o estudo de Lachi, permitindo a monitoração das ações através de um agente de colaboração, nos horários de aulas prédeterminados e fora destes horários, mantendo informações sobre a freqüência das interações realizadas e permitindo uma melhor orientação pelo responsável das atividades a serem executadas pelos alunos, através da captura das conversações realizadas num ambiente de Educação a Distância que utiliza Software Livre, o qual como resultado final proporcionará a análise das conversações com aplicação de um algoritmo de best search pelo professor, das ações dos participantes, no qual foi proposto por Lachi e agora implementamos parcialmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é propor uma metodologia de classificação de imagens de sensoriamento remoto que integre a importância de atributos de textura na seleção de feições, através da utilização de freqüências espaciais de cada classe textural e sua direção, com a eficiência das redes neurais artificiais para classificá-las. O processo é composto por uma etapa de filtragem baseada nos filtros de Gabor, seguida de uma fase de classificação através de uma rede neural Multi-Layer Perceptron com algoritmo BackPropagation. A partir da transformada de Fourier são estimados os parâmetros a serem utilizados na constituição dos filtros de Gabor, adequados às freqüências espaciais associadas a cada classe presente na imagem a ser classificada. Desta forma, cada filtro gera uma imagem filtrada. O conjunto de filtros determina um conjunto de imagens filtradas (canais texturais). A classificação pixel a pixel é realizada pela rede neural onde cada pixel é definido por um vetor de dimensionalidade igual ao número de filtros do conjunto. O processo de classificação através da rede neural Multi-Layer Perceptron foi realizado pelo método de classificação supervisionada. A metodologia de classificação de imagens de sensoriamento remoto proposta neste trabalho foi testada em imagens sintética e real de dimensões 256 x 256 pixels. A análise dos resultados obtidos é apresentada sob a forma de uma Matriz de Erros, juntamente com a discussão dos mesmos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas produtivos industriais podem combinar, em células de manufatura, diferentes características de automação de processos permitindo interfaceamento e possibilitando a flexibilização e otimização da manufatura. Nos processos de fabricação, as dificuldades para a execução de processos de usinagem convencional ou mesmo através de comando numérico, quando se dispõe de máquinas adequadas para a fabricação de peças de geometrias complexas, podem limitar a criatividade, bem como dificultar o desenvolvimento do processo produtivo de forma otimizada. As dificuldades encontradas vão desde fixação das peças, necessidades de dispositivos especiais, restrições nos volumes de trabalho de máquinas CNC e mesmo a geração de trajetórias complexas para máquinas com limitações de eixos. Este trabalho propõe uma metodologia alternativa para usinagem, especialmente fresamento, com desenvolvimento de um algoritmo capaz de, através da utilização de recursos de sistemas CAD/CAM, traduzir arquivos gráficos para uma linguagem de programação utilizada em robôs. Na aplicação utilizam-se recursos dos sistemas CAD/CAM para gerar, numa primeira etapa, o código de programação para máquinas-ferramenta de comando numérico e posterior adaptação, para aplicação em sistemas robóticos. Informações de caminhos de ferramenta para usinagem em máquinas CNC são convertidos, através de uma interface computacional, em trajetórias a serem seguidas por uma ferramenta guiada por um manipulador de robô industrial. Os parâmetros de processo são também adequados as restrições dos sistemas robotizados. A viabilidade do sistema proposto é confirmada através de testes realizados em modelos de superfícies complexas, onde o objetivo do referido trabalho foi alcançado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problemas relacionados com medicamentos (PRM) ocorrem freqüentemente na sociedade, afetando negativamente a qualidade de vida do paciente, sendo considerados problemas de saúde pública. Objetivos: Verificar se a busca de atendimento no serviço de emergência (SE) do Hospital de Clínicas de Porto Alegre (HCPA) estava relacionada com PRM. Métodos: A pesquisa seguiu o modelo de estudo transversal. O instrumento de coleta de dados foi um questionário estruturado preenchido durante a entrevista no SE. Seguiu-se à análise caso a caso e os PRM identificados foram classificados conforme o Segundo Consenso de Granada. As suspeitas de reações adversas encontradas foram classificadas de acordo com o Algoritmo de Naranjo. Resultados: Dos 335 entrevistados, 220 (65,7%) eram mulheres; com média de 45 anos; 257 (76,7%) brancos; 307 (91,6%) alfabetizados; 155 (46,3%) com ensino fundamental incompleto e 318 (94,9%) eram procedentes da região metropolitana de Porto Alegre. Observou-se uma freqüência de 31,6% de PRM, sendo os mais encontrados o PRM de inefetividade quantitativa com 30,9%, o de insegurança não-quantitativa com 29,3% e o de inefetividade não-quantitativa com 23,6%. O risco de pacientes com idade avançada apresentar algum PRM foi de 1,49 (IC 95%=1,07-2,08) e para os polimedicados foi de 1,85 (IC 95%=1,36-2,51). Os medicamentos mais envolvidos nos PRM foram os com ação nos sistemas cardiovascular (24%) e nervoso (17%). A maioria dos pacientes com PRM (56,7%) eram provenintes do ambulatório do HCPA. Conclusões: Um terço dos pacientes que buscaram atendimento no SE do HCPA o fizeram por PRM. Os resultados deste estudo reforçam a importância de pensar nos medicamentos como possíveis causadores de problemas de saúde e do desenvolvimento de programas para tornar a utilização mais racional.