1000 resultados para Predição de falhas
Resumo:
No presente trabalho aborda-se as rodas (pneus + jantes) e travões das frotas A319,A320, A320 SATA, A330 e A340 da TAP. Procurou-se realizar uma análise ao actual estado destes componentes, tendo sempre em mente eventuais melhorias a propor caso fosse possível. O estudo dividiu-se nas seguintes partes: prestação, custos, tipo de falhas, manutenção e fiabilidade. Nos três primeiros referenciados pretendeu-se analisar o estado dos componentes e ver potenciais padrões de falhas e irregularidades analisando também os custos de modo a sugerir potenciais reduções caso o cenário assim o permitisse. Salienta-se também que, para este trabalho, as temáticas manutenção e fiabilidade encontram-se interligadas. Teve-se em mente a realização de um estudo da probabilidade de falha dos componentes e assim, averiguar a possibilidade de melhorias no actual estado de manutenção praticado. Para tal, para os dados fiabilisticos recorreu-se ao programa Reliasoft Weibull++7 de modo a podermos observar a evolução do estado do componente ao longo dos ciclos. Por fim, deu-se uso a uma ferramenta fiabilistica, com o auxílio do software Maple 12 que visa a obtenção de um ponto mínimo de custo da manutenção de um componente, tendo a finalidade de comparar com o actual cenário de manutenção correctiva.
Resumo:
O processo de estampagem metálica é dos processos mais utilizados na indústria. Como resultado, qualquer pequeno avanço tecnológico, representa uma enorme melhoria no processo. O processo de estampagem metálica é realizado num curto período de tempo, com forças muito elevadas que promovem deformações elasto-plásticas, endurecimento do material e geração de calor por deformação plástica e também por atrito. Como resultado, muitos problemas podem ocorrer, tais como micro-fissuras, macro-fissuras, engelhamento, defeitos de forma estricções localizadas, fracturas, etc. Quando uma destas falhas ocorre, é importante fazer um diagnóstico das causas do problema. O método de elementos finitos, pode ajudar a fazer uma previsão destes problemas. Os resultados obtidos por este método, são utilizados para se modificarem algumas variáveis do processo, tais como: força do encostador, geometria de punções e matrizes. Neste trabalho foi efectuado um estudo da evolução de uma ferramenta progressiva, recorrendo a um software de elementos finitos (LS-DYNA). O objectivo do estudo da ferramenta progressiva, é o de fazer uma comparação dos resultados obtidos pelo LS-DYNA, com o componente obtido na fase de produção. A ferramenta em estudo passou por três grandes evoluções, tendo sido essencialmente alteradas as geometrias de punções e matrizes. Foi feita uma comparação das espessuras obtidas no processo real, com espessuras obtidas na simulação. Os resultados obtidos na simulação são muito semelhantes ao processo real, com uma margem de erro máximo de 4,08%.
Resumo:
Em 1993 ocorreu um surto alimentar em escola, com 211 afetados. Os dados epidemiológicos levantados por entrevista de amostragem de afetados e não afetados mostraram que os sintomas predominantes foram diarréia, febre (77,7%), dor abdominal (67,7%), vômito (65,8%), calafrios (54,5%) e cefaléia (44,5%). A mediana de incubação foi de 17 horas, com limites entre 3 e 29 horas. A duração da doença foi de 3 a 4 dias. O alimento consumido foi um tipo de patê, mistura de molho de maionese preparada com ovos crus com batata cozida, passado em pão. A análise de material biológico (3 coproculturas) e de restos de alimentos revelou a presença do mesmo microrganismo, a Salmonella Enteritidis. No caso dos alimentos, o número encontrado desta bactéria por gramo de produto era compatível com a quantidade de células necessária para desencadear a doença (10(4)e 10(5)/g). O antibiograma de todas as cepas isoladas revelou o mesmo padrão de sensibilidade. As falhas no preparo do alimento relacionadas com o levantamento indicam a possibilidade de contaminação endógena dos ovos; contaminação cruzada - o surto afetou três períodos escolares, sendo que para cada um o alimento foi preparado em separado - e as condições de manutenção do alimento após preparo e até o consumo. A observação por uma semana seguida das 3 merendeiras envolvidas, através de coprocultura, não indicaram que as mesmas fossem portadoras assintomáticas desta bactéria ou que tivessem sido envolvidas no surto em questão.
Resumo:
A rápida evolução dos dispositivos móveis e das tecnologias de comunicação sem fios transformou o telemóvel num poderoso dispositivo de computação móvel. A necessidade de estar sempre contactável, comum à civilização moderna, tem aumentado a dependência deste dispositivo, sendo transportado pela maioria das pessoas num ambiente urbano e assumindo um papel talvez mais importante que a própria carteira. A ubiquidade e capacidade de computação dos telemóveis aumentam o interesse no desenvolvimento de serviços móveis, além de tradicionais serviços de voz. Um telemóvel pode em breve tornar-se um elemento activo nas nossas tarefas diárias, servindo como um instrumento de pagamento e controlo de acessos, proporcionando assim novas interfaces para serviços existentes. A unificação de vários serviços num único dispositivo é um desafio que pode simplificar a nossa rotina diária e aumentar o conforto, no limite deixaremos de necessitar de dinheiro físico, cartões de crédito ou débito, chaves de residência e de veículos automóveis, ou inclusive documentos de identificação como bilhetes de identidade ou passaportes. O interesse demonstrado pelos intervenientes, desde os fabricantes de telemóveis e operadores de rede móvel até às instituições financeiras, levaram ao aparecimento de múltiplas soluções de serviços móveis. Porém estas soluções respondem geralmente a problemas específicos, apenas contemplando um fornecedor de serviços ou uma determinada operação de pagamento, como seja a compra de bilhetes ou pagamento de estacionamento. Estas soluções emergentes consistem também tipicamente em especificações fechadas e protocolos proprietários. A definição de uma arquitectura genérica, aberta interoperável e extensível é necessária para que os serviços móveis possam ser adoptados de uma forma generalizada por diferentes fornecedores de serviços e para diversos tipos de pagamento. A maior parte das soluções actuais de pagamento móvel depende de comunicações através da rede móvel, algumas utilizam o telemóvel apenas como uma interface de acesso à internet enquanto outras possibilitam o envio de um SMS (Short Message Service) para autorizar uma transacção, o que implica custos de comunicação em todas as operações de pagamento. Este custo de operação torna essas soluções inadequadas para a realização de micropagamentos e podem por isso ter uma aceitação limitada por parte dos clientes. As soluções existentes focam-se maioritariamente em pagamentos à distância, não tirando partido das características do pagamento presencial e não oferecendo por isso uma verdadeira alternativa ao modelo actual de pagamento com cartões de crédito/débito. As capacidades computacionais dos telemóveis e suporte de diversos protocolos de comunicação sem fio local não têm sido aproveitadas, vendo o telemóvel apenas como um terminal GSM (Global System for Mobile Communications) e não oferecendo serviços adicionais como seja a avaliação dinâmica de risco ou controlo de despesas. Esta dissertação propõe e valida, através de um demonstrador, uma aquitectua aberta para o pagamento e controlo de acesso baseado em dispositivos móveis, intitulada WPAC (Wireless Payment and Access Control). Para chegar à solução apresentada foram estudadas outras soluções de pagamento, desde o aparecimento dos cartões de débito até a era de pagamentos electrónicos móveis, passando pelas soluções de pagamento através da internet. As capacidades dos dispositivos móveis, designadamente os telemóveis, e tecnologias de comunicação sem fios foram também analisadas a fim de determinar o estado tecnológico actual. A arquitectura WPAC utiliza padrões de desenho utilizados pela indústria em soluções de sucesso, a utilização de padrões testados e a reutilização de soluções com provas dadas permite aumentar a confiança nesta solução, um destes exemplos é a utilização de uma infra-estrutura de chave pública para o estabelecimento de um canal de comunicação seguro. Esta especificação é uma arquitectura orientada aos serviços que utiliza os Web Services para a definição do contracto do serviço de pagamento. A viabilidade da solução na orquestração de um conjunto de tecnologias e a prova de conceito de novas abordagens é alcançada com a construção de um protótipo e a realização de testes. A arquitectura WPAC possibilita a realização de pagamentos móveis presenciais, isto é, junto do fornecedor de bens ou serviços, seguindo o modelo de pagamento com cartões de crédito/débito no que diz respeito aos intervenientes e relações entre eles. Esta especificação inclui como aspecto inovador a avaliação dinâmica de risco, que utiliza o valor do pagamento, a existência de pagamentos frequentes num período curto de tempo, e a data, hora e local do pagamento como factores de risco; solicitando ao cliente o conjunto de credenciais adequado ao risco avaliado, desde códigos pessoais a dados biométricos. É também apresentada uma alternativa ao processo normal de pagamento, que apesar de menos cómoda permite efectuar pagamentos quando não é possível estabelecer um canal de comunicação sem fios, aumentando assim a tolerância a falhas. Esta solução não implica custos de operação para o cliente na comunicação com o ponto de venda do comerciante, que é realizada através de tecnologias de comunicação local sem fios, pode ser necessária a comunicação através da rede móvel com o emissor do agente de pagamento para a actualização do agente de software ou de dados de segurança, mas essas transmissões são ocasionais. O modelo de segurança recorre a certificados para autenticação dos intervenientes e a uma infra-estrutura de chave pública para cifra e assinatura de mensagens. Os dados de segurança incluídos no agente de software móvel, para desabilitar a cópia ou corrupção da aplicação mas também para a comparação com as credenciais inseridas pelo cliente, devem igualmente ser encriptados e assinados de forma a garantir a sua confidencialidade e integridade. A arquitectura de pagamento utiliza o standard de Web Services, que é amplamente conhecido, aberto e interoperável, para definição do serviço de pagamento. Existem extensões à especificação de Web Services relativas à segurança que permitem trocar itens de segurança e definem o modo de cifra e assinatura de mensagens, possibilitando assim a sua utilização em aplicações que necessitem de segurança como é o caso de serviços de pagamento e controlo de acesso. O contracto de um Web Service define o modo de invocação dos serviços, transmissão de informação e representação de dados, sendo normalmente utilizado o protocolo SOAP que na prática não é mais que um protocolo de troca de mansagens XML (eXtensible Markup Language). O envio e recepção de mensagens XML; ou seja, a transmissão de simples sequências de caracteres, é suportado pela maioria dos protocolos de comunicação, sendo portanto uma solução abrangente que permite a adopção de diversas tecnologias de comunicação sem fios. O protótipo inclui um agente de software móvel, implementado sobre a forma de uma MIDlet, aplicação Java para dispositivos móveis, que implementa o protocolo de pagamento comunicando sobre uma ligação Bluetooth com o ponto de venda do comerciante, simulado por uma aplicação desenvolvida sobre a plataforma .NET e que por isso faz prova da heterogeneidade da solução. A comunicação entre o comerciante e o seu banco para autorização do pagamento e transferência monetária utiliza o protocolo existente para a autorização de pagamentos, com base em cartões de crédito/débito. A definição desta especificação aberta e genérica em conjunto com o forte interesse demonstrado pelos intervenientes, proporciona uma boa perspectiva em termos de adopção da solução, o que pode impulsionar a implementação de serviços móveis e dessa forma simplificar as rotinas diárias das pessoas. Soluções móveis de pagamento reduzem a necessidade de transportar vários cartões de crédito/débito na nossa carteira. A avaliação dinâmica de risco permite aumentar a segurança dos pagamentos, com a solicitação de mais credenciais ao cliente para pagamentos com um maior risco associado, sendo um ponto importante quer para os clientes quer para as instituições financeiras pois diminui o risco de fraude e aumenta a confiança no sistema. Esta solução de pagamento electrónico pode também facilitar a consulta de pagamentos efectuados e saldos, mantendo um histórico dos movimentos, o que não é possível nos cartões de crédito/débito sem uma visita a uma ATM (Automated Teller Machine) ou utilização de homebanking.
Resumo:
A necessidade que as indústrias têm, hoje em dia, de lidar com processos cada vez mais complexos, onde a quantidade de variáveis a controlar e restrições processuais a impor aumentou exponencialmente nas últimas décadas. Uma maior competitividade e eficiência, lado-a-lado com a redução de custos, proporcionou à comunidade científica e industrial explorar mais profundamente o controlo de processos, com vista à construção de técnicas avançadas para fazer face a estas exigências. O controlo preditivo baseado em modelos - MPC- engloba diversas classes de controladores que utilizam algoritmos de predição/previsão e modelos matemáticos representativos do sistema, que juntamente com restrições processuais permitem operar junto de referências e tornar o controlo mais eficiente e seguro. O sucesso do MPC nos sistemas lineares com restrições deve-se, sobretudo, ao facto de reduzir o problema de optimização a um problema de programação quadrática, de fácil implementação e resolução. Além do mais, trata-se de um tipo de controlo bastante flexível e, ao mesmo tempo, mais robusto que o controlo clássico ou convencional, já que pode lidar com processos multivariáveis sem precisar de alterações significativas na sua construção. Neste trabalho aplicam-se técnicas de controlo preditivo a processos não lineares multivariáveis. Estuda-se, ainda, o desempenho desta classe de controladores comparando-a com técnicas de controlo convencional. Nomeadamente, estuda-se um sistema de três tanques em que o caudal é manipulado através de válvulas com característica não linear. O processo é modelado através de princípios de conservação e é validado por um conjunto real de ensaios que permitiu, ainda, obter experimentalmente a característica das válvulas. O modelo validado permitiu desenvolver um controlador preditivo multivariável para controlar os níveis da instalação. Demonstra-se que os controladores preditivos apresentam grandes vantagens em relação ao controlo clássico com malhas independentes.
Resumo:
Nos tempos actuais os equipamentos para Aquecimento Ventilação e Ar Condicionado (AVAC) ocupam um lugar de grande importância na concepção, desenvolvimento e manutenção de qualquer edifício por mais pequeno que este seja. Assim, surge a necessidade premente de racionalizar os consumos energéticos optimizando-os. A alta fiabilidade desejada nestes sistemas obriga-nos cada vez mais a descobrir formas de tornar a sua manutenção mais eficiente, pelo que é necessário prevenir de uma forma proactiva todas as falhas que possam prejudicar o bom desempenho destas instalações. Como tal, torna-se necessário detectar estas falhas/anomalias, sendo imprescíndivel que nos antecipemos a estes eventos prevendo o seu acontecimento num horizonte temporal pré-definido, permitindo actuar o mais cedo possível. É neste domínio que a presente dissertação tenta encontrar soluções para que a manutenção destes equipamentos aconteça de uma forma proactiva e o mais eficazmente possível. A ideia estruturante é a de tentar intervir ainda numa fase incipiente do problema, alterando o comportamento dos equipamentos monitorizados, de uma forma automática, com recursos a agentes inteligentes de diagnóstico de falhas. No caso em estudo tenta-se adaptar de forma automática o funcionamento de uma Unidade de Tratamento de Ar (UTA) aos desvios/anomalias detectadas, promovendo a paragem integral do sistema apenas como último recurso. A arquitectura aplicada baseia-se na utilização de técnicas de inteligência artificial, nomeadamente dos sistemas multiagente. O algoritmo utilizado e testado foi construído em Labview®, utilizando um kit de ferramentas de controlo inteligente para Labview®. O sistema proposto é validado através de um simulador com o qual se conseguem reproduzir as condições reais de funcionamento de uma UTA.
Resumo:
Este trabalho tem como objectivo apresentar as ferramentas do Lean Thinking e realizar um estudo de caso numa organização em que este sistema é utilizado. Numa primeira fase do trabalho será feito uma análise bibliográfica sobre o ―Lean Thinking”, que consiste num sistema de negócios, uma forma de especificar valor e delinear a melhor sequência de acções que criam valor. Em seguida, será realizado um estudo de caso numa Empresa – Divisão de Motores – no ramo da aeronáutica com uma longa e conceituada tradição com o objectivo de reduzir o TAT (turnaround time – tempo de resposta), ou seja, o tempo desde a entrada de um motor na divisão até à entrega ao cliente. Primeiramente, analisando as falhas existentes em todo o processo do motor, isto é, a análise de tempos de reparação de peças à desmontagem do motor que têm que estar disponíveis à montagem do mesmo, peças que são requisitadas a outros departamentos da Empresa e as mesmas não estão disponíveis quando são precisas passando pelo layout da divisão. Por fim, fazer uma análise dos resultados até então alcançados na divisão de Motores e aplicar as ferramentas do ―Lean Thinking‖ com o objectivo da implementação. É importante referir que a implementação bem-sucedida requer, em primeiro lugar e acima de tudo, um firme compromisso da administração com uma completa adesão à cultura da procura e eliminação de desperdício. Para concluir o trabalho, destaca-se a importância deste sistema e quais são as melhorias que se podem conseguir com a sua implantação.
Resumo:
O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.
Resumo:
Devido à necessidade de selecionar e monitorizar indicadores de desempenho do processo pré analítico, a nível nacional, a Sociedade Portuguesa de Química Clínica e Medicina Laboratorial implementou o grupo de trabalho neste âmbito. Na reunião pretende-se, numa discussão interativa com os participantes, apresentar os trabalhos já desenvolvidos e planear projetos futuros que sejam consensuais e com impacto direto na melhoria da qualidade nesta fase extra-analítica. Um breve questionário será distribuído no início da apresentação de modo a recolher informação para organização dos trabalhos. Os dados recolhidos serão analisados pelos responsáveis/coordenadores do grupo de trabalho que divulgarão posteriormente a metodologia a implementar. Pretende-se ainda que sejam elaboradas diretrizes, para posterior divulgação, que poderão servir de guia com o objetivo de diminuição das falhas observadas na fase pré analítica.
Resumo:
O trabalho apresentado por este documento aborda os problemas que advêm da necessidade de integração de aplicações, desenvolvidas em diferentes instantes no tempo, por diferentes equipas de trabalho, que para enriquecer os processos de negócio necessitam de comunicar entre si. A integração das aplicações tem de ser feita de forma opaca para estas, sendo disponibilizada por uma peça de software genérica, robusta e sem custos para as equipas desenvolvimento, na altura da integração. Esta integração tem de permitir que as aplicações comuniquem utilizando os protocolos que desejarem. Este trabalho propõe um middleware orientado a mensagens como solução para o problema identificado. A solução apresentada por este trabalho disponibiliza a comunicação entre aplicações que utilizam diferentes protocolos, permite ainda o desacoplamento temporal, espacial e de sincronismo na comunicação das aplicações. A implementação da solução tem base num sistema publish/subscribe orientado ao conteúdo e tem de lidar com as maiores exigências computacionais que este tipo de sistema acarta, sendo que a utilização deste se justifica com o enriquecimento da semântica de subscrição de eventos. Esta implementação utiliza uma arquitectura semi-distribuída, com o objectivo de aumentar a escalabilidade do sistema. A utilização da arquitectura semi-distribuída implica que a implementação da solução tem de lidar com o encaminhamento de eventos e divulgação das subscrições, pelos vários servidores de eventos. A implementação da solução disponibiliza garantias de persistência, processamento transaccional e tolerância a falhas, assim como transformação de eventos entre os diversos protocolos. A extensibilidade da solução é conseguida à custa de um sistema de pluggins que permite a adição de suporte a novos protocolos de comunicação. Os protocolos suportados pela implementação final do trabalho são RestMS e TCP.
Resumo:
Mestrado em Tecnologia de Diagnóstico e Intervenção Cardiovascular. Área de especialização: Intervenção Cardiovascular.
Resumo:
OBJETIVO: Analisar o uso do Sistema de Informações Hospitalares do Sistema Único de Saúde (SIH/SUS) no ajuste de risco das taxas de mortalidade hospitalar e avaliar a utilidade do índice de comorbidade de Charlson (ICC) no ajuste de risco de indicadores de desempenho. MÉTODOS: Foram selecionadas 40.299 internações ocorridas no Município do Rio de Janeiro entre dezembro de 1994 e dezembro de 1996. A medida de gravidade foi testada pelo ICC, que atribui pesos a 17 condições clínicas presentes nos diagnósticos secundários, a fim de obter a carga de morbidade do paciente (gravidade) independentemente do diagnóstico principal. Utilizou-se a regressão logística para avaliar o impacto do ICC na estimativa da chance de morrer no hospital. RESULTADOS: Nas internações selecionadas, observou-se que o ICC foi igual ou superior a um em apenas 5,7 % dos casos. Quando se aplicou o ICC combinado à idade, o percentual de casos com pontuação diferente de zero aumentou substancialmente. Os modelos testados apresentaram reduzida sensibilidade. CONCLUSÕES: Apesar de a presença de comorbidade ser importante na predição do risco de morrer, essa variável pouco discriminou a gravidade dos casos na base de dados do SIH/SUS, o que é explicado pela qualidade da informação diagnóstica nessa base de dados, na qual a idade é o preditor mais importante do risco de morrer, afora o diagnóstico principal. Apesar das limitações ainda existentes na qualidade da informação diagnóstica disponível no SIH/SUS, sugere-se o uso do ICC combinado como medida para ajuste do risco de morrer nas taxas calculadas a partir desses dados.
Resumo:
Os testes acelerados de vida são realizados com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um determinado tipo de bem, despoletando a ocorrência de um dado modo de falha específico, num período de tempo mais reduzido do que aquele em que, em condições de normal operação se verificaria. Torna-se assim possível, através da utilização dos testes acelerados de vida e dos modelos matemáticos de extrapolação de dados, prever a ocorrência de falhas e dos seus modos, permitindo assim realizar alterações aos projectos em estudo, antes mesmo de estes serem disponibilizados no mercado. O emprego deste tipo de metodologia possibilita às organizações uma economia de tempo na determinação dos dados de vida dos bens, o que se reflecte numa grande vantagem face aos testes realizados para normais condições de operação. No presente documento é feita uma abordagem muito objectiva dos conceitos de fiabilidade de modo a poder perceber os conceitos teóricos em que assentam as metodologias relacionadas com os testes acelerados de vida, bem como o estudo e análise das teorias que servem por base aos testes acelerados. No presente documento são analisados os modelos matemáticos de extrapolação de dados dos testes acelerados de vida, tais como o modelo de Arrhenius, o modelo de Eyring, o modelo da Lei da Potência Inversa e o modelo de Bazovsky. Para uma melhor compreensão dos conceitos é feita uma análise às distribuições mais utilizadas em fiabilidade, caso da distribuição de Weibull, da distribuição Normal e da distribuição Lognormal. Para implementar os conceitos e metodologias estudadas, obtiveram-se dados referentes a testes acelerados de vida de um óleo isolante de um transformador eléctrico, implementou-se a metodologia relacionada com o modelo da Lei da Potência Inversa através do software ALTA 8 e determinaram-se os parâmetros fiabilísticos correspondentes. De outro modo, foi ainda utilizado um método detalhado de resolução, utilizando o software Weibull++ 8, para posterior comparação de resultados.
Resumo:
As crescentes preocupações com as questões ambientais e os efeitos negativos das emissões gasosas de veículos com motor de combustão interna, têm incentivado o desenvolvimento de soluções alternativas, amigas do ambiente, para a mobilidade das pessoas e bens. Entre estas soluções estão os veículos elétricos, dos quais surgem a motivação deste trabalho. Tendo em conta que os veículos elétricos continuam a apresentar limitações relacionadas com a autonomia, torna-se necessário permitir aos condutores um planeamento rigoroso da utilização diária do veículo. Neste contexto surgem como opção os sistemas de recomendação, tendo em conta vários casos de sucesso associados à aplicação dos mesmos para filtrar a informação que é realmente útil no contexto de um determinado problema. A obtenção de informação em tempo real sobre o VE (Veículo Elétrico), tais como a autonomia, localização e reserva dos postos de carregamento é um fator importante na aceitação dos VE pelos consumidores (condutores). Esta informação, tendo em conta os progressos recentes e a proliferação dos dispositivos móveis, sistemas de informação geográfica e de georreferenciação e dos processos de comunicação podem ser integrados, originando informação em tempo real para os condutores, permitindo a mitigação dos problemas referidos e, consequentemente, uma melhor utilização do VE. Neste trabalho é apresentado um sistema de informação que pretende auxiliar o condutor na utilização diária do seu veículo elétrico, maximizando a qualidade das suas decisões num determinado contexto, minimizando o problema da ansiedade de alcance através do controlo contínuo da autonomia do veículo, através da implementação de um cálculo de predição da autonomia e distância possíveis de percorrer a partir de um determinado ponto. Este sistema também permite visualizar de forma atempada a informação relevante sobre os pontos de interesse e de carregamento disponíveis no seu raio de alcance, bem como um conjunto de rotas possíveis para os mesmos.
Resumo:
OBJETIVO: A baixa acuidade visual tem elevada prevalência e o diagnóstico precoce é necessário pelos danos que pode causar ao desenvolvimento e aprendizado infantis. O estudo realizado objetivou descrever e analisar a prevalência de baixa acuidade visual em escolares da rede de ensino fundamental. MÉTODOS: A partir do diagnóstico da acuidade visual, 9.640 escolares de primeira e quarta séries da rede pública de ensino fundamental de Sorocaba, Estado de São Paulo, no ano 2000, foram analisados e classificados seus registros segundo sexo, série, uso de óculos, área de residência e grau de acesso à assistência médica supletiva. Foram realizados testes de correlação de Pearson e análise de regressão linear. RESULTADOS: A população estudada apresentou prevalência de baixa acuidade visual de 13,1% (IC 95%=12,5-13,8%), sendo significantemente menor no sexo masculino (11,5%) quando comparado ao feminino (14,9%) - (RP=0,77); significantemente maior nos escolares de primeira série (14,1%) quando comparados aos de quarta série (11,5%) - (RP=1,22); e significantemente menor em não-usuários de óculos (12,1%) quando comparados aos usuários (42,0%) - (RP=0,29). Dentre os locais estudados, o bairro de Cajuru apresentou a menor prevalência de baixa acuidade visual (1,8%) e o bairro de Vila Sabiá a maior prevalência (32,4%). Foi encontrada correlação positiva, segundo a área de residência entre a proporção de indivíduos que têm acesso à assistência médica supletiva e a proporção de usuários de óculos (r=0,64, p<0,001). CONCLUSÕES: A prevalência de baixa acuidade visual aponta falhas no diagnóstico precoce e na continuidade da assistência, indicando urgente necessidade de implementação de um programa público de saúde.