997 resultados para Planeamento da manutenção


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar da importância reconhecida da dispensa de medicamentos em unidose a nível hospitalar, em determinadas situações as apresentações comerciais disponíveis não oferecem alternativa à terapêutica desejada. Deste modo, surge por parte dos Serviços Farmacêuticos Hospitalares a necessidade de proceder à manipulação de alguns medicamentos. Uma dessas situações prende-se com a necessidade de fraccionamento de algumas formas orais sólidas. Todavia, embora o fraccionamento de comprimidos seja uma prática frequente, não só para obter doses não comercializadas como também para permitir titular o regime posológico ou facilitar a deglutição, este nem sempre é recomendável. Um dos problemas associados ao fraccionamento de comprimidos prende-se com as perdas com possam ocorrer durante o processo, levando a que a dosagem efectivamente dispensada não seja coincidente com a efectivamente esperada. Segundo a Farmacopeia Portuguesa (FP VIII), em comprimidos com massa até 80 mg, após pesagem de 20 unidades e determinação do seu peso médio, não mais de 2 unidades podem afastar-se 10% do peso médio e nenhuma unidade se pode afastar mais de 20%. Assim sendo, tal condição assume particular importância quando se procede ao fraccionamento de medicamentos contendo fármacos com margem terapêutica estreita. Um desses casos associa-se à varfarina. Usada como anticoagulante oral, a varfarina é comercializada em comprimidos com uma dosagem de 5 mg. A sua dose inicial em adultos é habitualmente de 10 mg diários durante dois dias, sendo a dose de manutenção dependente do tempo de protrombina. Deste modo, a dose de manutenção pode alcançar dosagens não comercializadas, tais como 1,25 mg e 2,5 mg. No Centro Hospitalar de São João, EPE, o fraccionamento de comprimidos de varfarina 5 mg tem constituído uma prática frequente, com cerca de 132 unidades fraccionadas a 2,5 mg e 20 unidades fraccionadas a 1,25 mg, durante o ano de 2010. Todavia, a falta de estudos publicados que comprovem a segurança da uniformidade de massa após o fraccionamento deste medicamento colocam ainda algumas questões. Este trabalho pretende assim avaliar a uniformidade das fracções obtidas após fraccionamento dos comprimidos de varfarina, com o intuito de conhecer se estes se encontram dentro dos parâmetros estabelecidos pela FP VIII.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As ameaças à segurança da informação, (INFOSEC) atentam contra a perda da respectiva confidencialidade, integridade e disponibilidade, pelo que as organizações são impelidas a implementar políticas de segurança, quer ao nível físico quer ao nível lógico, utilizando mecanismos específicos de defesa. O projecto Network Air Gap Controller (NAGC) foi concebido no sentido de contribuir para as questões da segurança, designadamente daquelas que se relacionam directamente com a transferência de informação entre redes de classificação de segurança diferenciadas ou de sensibilidades distintas, sem requisitos de comunicação em tempo real, e que mereçam um maior empenho nas condições de robustez, de disponibilidade e de controlo. Os organismos que, em razão das atribuições e competências cometidas, necessitam de fazer fluir informação entre este tipo de redes, são por vezes obrigados a realizar a transferência de dados com recurso a um processo manual, efectuado pelo homem e não pela máquina, que envolve dispositivos amovivéis, como sejam o CD, DVD, PEN, discos externos ou switches manuais. Neste processo, vulgarmente designado por Network Air Gap (NAG), o responsável pela transferência de dados deverá assumir de forma infalível, como atribuições intrínsecas e inalienáveis da função exercida, as garantias do cumprimento de um vasto conjunto de normas regulamentares. As regras estabelecidas desdobram-se em ferramentas e procedimentos que se destinam, por exemplo, à guarda em arquivo de todas as transferências efectuadas; à utilização de ferramentas de segurança (ex: antivírus) antes da colocação da informação na rede de classificação mais elevada; ao não consentimento de transferência de determinados tipos de ficheiro (ex: executáveis) e à garantia de que, em consonância com a autonomia que normalmente é delegada no elemento responsável pela operação das comunicações, apenas se efectuam transferências de informação no sentido da rede de classificação inferior para a rede de classificação mais elevada. Face ao valor da informação e do impacto na imagem deste tipo de organizações, o operador de comunicações que não cumpra escrupulosamente o determinado é inexoravelmente afastado dessas funções, sendo que o processo de apuramento de responsabilidades nem sempre poderá determinar de forma inequívoca se as razões apontam para um acto deliberado ou para factores não intencionais, como a inépcia, o descuido ou a fadiga. Na realidade, as actividades periódicas e rotineiras, tornam o homem propenso à falha e poderão ser incontornavelmente asseguradas, sem qualquer tipo de constrangimentos ou diminuição de garantias, por soluções tecnológicas, desde que devidamente parametrizadas, adaptadas, testadas e amadurecidas, libertando os recursos humanos para tarefas de manutenção, gestão, controlo e inspecção. Acresce que, para este tipo de organizações, onde se multiplicam o número de redes de entrada de informação, com diferentes classificações e actores distintos, e com destinatários específicos, a utilização deste tipo de mecanismos assume uma importância capital. Devido a este factor multiplicativo, impõe-se que o NAGC represente uma opção válida em termos de oferta tecnológica, designadamente para uma gama de produtos de baixíssimo custo e que possa desenvolver-se por camadas de contributo complementar, em função das reais necessidades de cada cenário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os aditivos alimentares desempenham um papel vital na indústria alimentar moderna e são geralmente utilizados na manutenção da qualidade e das características dos alimentos, promovendo desta forma a segurança alimentar. Para garantir o consumo seguro de alimentos com aditivos, os Estados Membros da União Europeia devem estabelecer um sistema regular de vigilância para monitorização desse consumo. No sentido de obter essa informação, é necessário aplicar métodos de análise robustos de modo a quantificar os níveis dessas substâncias numa larga variedade de matrizes alimentares. O presente trabalho teve como objectivos: a determinação analítica do tipo e do teor de aditivos alimentares nos novos refrigerantes à base de água mineral através de um método de HPLC baseado na norma EN 12856, a validação do método analítico para a quantificação dos edulcorantes (acessulfame K, aspartame e sacarina) e dos conservantes (ácido sórbico e ácido benzóico) e a comparação dos resultados obtidos com os valores máximos permitidos pela legislação portuguesa. Dos refrigerantes à base de água existentes no mercado português, foram analisadas 34 amostras de diferentes marcas, para determinação do tipo e teor de aditivos. Na validação da metodologia foram avaliados os seguintes parâmetros: gama de trabalho, linearidade, sensibilidade, limite de detecção (LD), limite de quantificação (LQ), precisão (repetibilidade e precisão intermédia) e exactidão. Relativamente à análise dos edulcorantes, verificou-se a presença do acessulfame K em 12 refrigerantes numa concentração que oscilou entre 34 e 94 mg/L. O aspartame foi encontrado apenas em 5 amostras num intervalo de concentração de 36 a 159 mg/L e a sacarina não foi detectada. No caso dos conservantes, o ácido sórbico foi encontrado em 19 dos refrigerantes numa gama de concentração entre 109 e 283 mg/L enquanto que o ácido benzóico, presente em 18 amostras, apresentou um teor que variou entre 91 e 143 mg/L. Observou-se ainda que o teor de cada um dos aditivos nos diferentes refrigerantes não excedeu o limite máximo legislado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os quebra-mares de taludes são estruturas de protecção portuária muito comuns em Portugal e em cujo projecto se assume a necessidade de obras de manutenção ou reparação durante a sua vida útil. Para a avaliação da necessidade de realização destas obras, é necessária a existência de um programa de acompanhamento da estrutura contemplando a medição de grandezas relevantes para essa avaliação. Uma destas grandezas é o volume erodido do manto protector por acção da agitação marítima, que pode determinar-se a partir de levantamentos consecutivos da envolvente dos taludes e com o qual se pode definir o dano da estrutura. Melby (1999) apresentou uma fórmula para previsão da evolução do dano em quebra-mares de taludes com base nas características da agitação neles incidente. Nesta dissertação apresentam-se os resultados do trabalho realizado com o objectivo de avaliar a aplicabilidade daquela fórmula em condições de agitação diferentes das consideradas por aquele autor. De modo a atingir esse objectivo reproduziram-se as experiências descritas por Melby (1999). Tratam-se de ensaios de longa duração em modelo Físico reduzido em que sequências de estados de agitação estacionários vão atingindo o manto protector e se mede a área erodida no final da actuação de cada estado de agitação. Uma vez que estes ensaios terminam apenas quando fica visível uma porção apreciável do filtro sob o manto protector, a sua duração é substancialmente superior à dos ensaios comuns de estabilidade e galgamentos deste tipo de estrutura. A medição da área erodida no final da actuação de cada estado de agitação foi realizada a partir da reconstrução de pares estereoscópicos de fotografias em que a refracção induzida pela interface ar-água é corrigida. Tal significa que aquelas fotografias podem ser tiradas mantendo-se a água no canal. Pretendeu-se com a utilização desta técnica de levantamento avaliar a sua operacionalidade em ensaios de longa duração, para os quais seja necessário o levantamento exaustivo de perfis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com este trabalho pretende-se estudar o desempenho das tecnologias GSM-R e WiMAX em ambientes ferroviários. Este tipo de estudo tem uma importância elevada devido grande interesse na reestruturação dos sistemas de comunicações vocacionados para aplicações ferroviárias. Estes sistemas são cada vez mais complexos, apresentando níveis mais elevados de exigência, como a segurança, suporte de sinalização, tráfego ferroviário e interoperabilidade entre sistemas de diferentes países. Com tudo isto é necessário explorar e conhecer o comportamento de diversas tecnologias para este tipo de aplicações. Neste trabalho foi efectuado um primeiro estudo abrangendo a tecnologia WiMAX (Norma IEEE 802.16d) em ambientes interiores de edifícios, de forma a estudar o seu comportamento com e sem linha de vista e em proximidade e afastamento da estação base. Este estudo foi conclusivo quanto há não adequação desta tecnologia em ambientes ferroviários, visto ter sido observado que em situações de ausência de linha de vista a degradação da qualidade do sinal não conseguiria suportar os níveis de exigência necessários para a aplicação do mesmo em ambientes ferroviários. Analisou-se em segundo lugar a tecnologia GSM-R, onde se efectuou um estudo de campo em ambientes reais. Para o estudo desta tecnologia foram utilizados ambientes diversificados de forma a obter um estudo mais aprofundado do seu comportamento. Como objectivo têm-se a criação de melhores métodos de planeamento, mais vocacionados para as características específicas dos ambientes ferroviários e exigências das aplicações dos sistemas de comunicações ferroviários. Através deste estudo foi possível obter conclusões relativamente à variação da potência do sinal para as diversas condições e ambientes de propagação a que o sistema GSM-R foi sujeito, tendo sido possível também caracterizar o tipo de ambientes característicos das linhas ferroviárias. Foi possível também concluir que este tipo de sistemas consegue responder aos níveis de exigência e aplicações dos sistemas de comunicação ferroviários, trazendo uma mais-valia relativamente aos existentes actualmente a nível nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: Pesquisas sobre a amamentação e a questão do trabalho da mulher são de difícil comparabilidade. A prática de amamentar entre mulheres com um emprego formal no Brasil tem sido pouco estudada, em que pesem as mudanças havidas como a extensão da licença maternidade para 120 dias. Decidiu-se realizar estudo com o objetivo de descrever o padrão de amamentação de mulheres empregadas em empresas, as limitações que elas enfrentam e que fatores contribuem para que elas possam conciliar trabalho e amamentação. MATERIAL E MÉTODO: Estudo exploratório realizado em 13 indústrias de São Paulo em 1994, onde todas as mulheres no terceiro trimestre da gestação (76) foram entrevistadas e reentrevistadas (69) na volta ao trabalho (em torno de 5,4 meses pós-parto). RESULTADOS: Iniciaram a amamentação 97% das mulheres, apresentando uma duração mediana de 150 dias; quanto ao Aleitamento Materno Exclusivo, a duração mediana foi de 10 dias, e à Amamentação Predominante, a mediana foi de 70 dias. As mulheres de melhor nível socioeconômico e as que tinham creche no local de trabalho ou sala de coleta e estocagem de leite materno, foram as que amamentaram por mais tempo. A possibilidade de flexibilizar seu horário e não trabalhar na linha de produção também mostraram ser fatores significantes que levam as mulheres dessas indústrias a amamentar mais. CONCLUSÕES: A licença-maternidade tem sido útil e usada pela maioria das trabalhadoras para amamentar, mas há outros fatores que são fundamentais para que a manutenção da lactação seja facilitada, tais como aqueles que permitem a proximidade mãe-criança e/ou a retirada periódica de leite materno durante a jornada de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudou-se a lixiviação em meio sulfúrico do zinco e outros metais de valor de um concentrado zinco, tendo-se realizado ensaios de lixiviação à pressão atmosférica e em autoclave. Nos estudos de lixiviação utilizou-se o ião férrico (sulfato férrico) como agente oxidante e avaliaram-se os efeitos de diversas variáveis como a razão sólido/líquido, concentração do ião Fe (III), temperatura, a pressão de oxigénio e a presença de enxofre elementar na eficiência da lixiviação. Os ensaios de lixiviação em autoclave sob pressão de oxigénio foram realizados para verificar o efeito da manutenção da quantidade de Fe (III) na lixívia, por oxidação do Fe(II) com oxigénio. Os resultados obtidos mostraram que à pressão atmosférica para uma razão sólido/líquido de 5% foi possível lixiviar no máximo 59% de zinco e 22% de cobre com solução de 0,25 M de Fe2(SO4)3 e 0,50 M de H2SO4 em 2 horas a 60ºC e com uma razão sólido/líquido de 5% foi possível lixiviar no máximo 65% de zinco e 23% de cobre com uma solução de 0,5 M de Fe2(SO4)3 e 0,25 M de H2SO4 em 2 horas a 80ºC. Efectuar a lixiviação do concentrado de zinco sobre pressão de oxigénio permitiu aumentar a cinética da reacção de lixiviação, tendo sido possível lixiviar 97% de zinco e 48% do cobre em 2 horas de lixiviação com uma solução de 0,25 M Fe2(SO4)3 e 0,5 M H2SO4 a 95 ºC e a 6 bar de pressão de oxigénio (à entrada do reactor) com uma razão sólido/líquido de 5%. Utilizando razão sólido/líquido de 10 % foi possível lixiviar 93% de zinco e 54% do cobre com uma solução de 0,50 M Fe2(SO4)3 e 1,25 M H2SO4 a 95 ºC e a 6 bar de pressão de oxigénio, e para uma razão sólido/líquido de 20 % foi possível lixiviar 84% de zinco e 39% do cobre com uma solução de 0,11 M Fe2(SO4)3 e 2,00 M H2SO4 a 95 ºC e a 10 bar de pressão. As análises de difracção de Raios X efectuados aos resíduos de lixiviação revelaram que o enxofre era maioritariamente oxidado a enxofre elementar. Assim, para um dos ensaios de lixiviação em autoclave, verificou-se que a remoção com tetracloreto de carbono do enxofre elementar formado num primeiro andar de lixiviação (s/l=20%, 0,11 M Fe2(SO4)3 e 2,00 M H2SO4 a 95 ºC e a 10 bar de pressão) permitia aumentar a percentagem de zinco no segundo andar de 42 para 68%. Por último, o estudo do efeito da temperatura permitiu calcular como base nas velocidades iniciais do zinco a energia de activação para a lixiviação do zinco que foi de 39 ± 1.40 kJ/mol para a lixiviação em autoclave e de 38 ± 1.40 kJ/mol para a lixiviação à pressão atmosférica, o que é indicativo do controlo reaccional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

São analizadas as características atuais e as perspectivas dos processos de transição demográfica e epidemiológica no Brasil. Foram utilizados os resultados do censo demográfico de 1991 e 1996 e Pesquisa Nacional por Amostra de Domicílios (PNAD) de 1993 e 1995, de novas projeções populacionais, e de recentes estudos sobre o perfil socioeconômico e de saúde de idosos de três grandes capitais brasileiras. Embora se estime que a proporção de idosos deverá duplicar até 2050, alcançando 15% do total da população, doenças crônico-degenerativas e distúrbios mentais já têm determinado, atualmente, maciça utilização dos serviços de saúde. O desenvolvimento de doenças, incapacidades e dependência têm sido mais freqüentes dentre aqueles de baixa renda que, no entanto, não têm conseguido garantir a assistência social e de saúde que demandam. Ações preventivas devem ser coordenadas por unidades básicas de saúde, priorizando necessidades locais. É imprescindível o investimento imediato na saúde, educação e formação técnica dos jovens, nos programas de apoio aos familiares e na manutenção de idosos em atividades produtivas adequadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pretende-se com este trabalho de Projecto de Mestrado conceber uma câmara frigorífica de 20000 m3 para armazenar produtos congelados e estudar um sistema frigorífico com dois fluidos frigorigénios que serão o CO2 (R-744) e o NH3 (R-717) O trabalho inicia-se com a definição dos objectivos principais para o projecto de um sistema frigorífico deste tipo. Após a definição dos objectivos, o projecto propõe um estudo termodinâmico do CO2 (R-744) como fluido frigorigénio, definindo se o seu historial de utilização, características principais, diagrama pressão-entalpia com a distinção das diversas fases do fluído, comparação em diversos parâmetros com outros fluidos, o porquê da utilização deste fluído, problemas comuns em sistemas com a presença deste fluído, entre outros parâmetros de estudo. De seguida será feito o dimensionamento de uma câmara frigorífica de 20000 m3 para armazenar produtos congelados paletizados através de um balanço térmico manual e um balanço térmico informático através do programa da Centauro comparando no final o resultado dos dois métodos. Será feito uma descrição das características básicas da câmara frigorífica com um esquema simples do edifício. Será abordado de seguida o sistema frigorífico a CO2 (R-744) e a NH3 (R-717) nas suas diversas características, nomeadamente no cálculo de caudais, diagrama pressão-entalpia, dimensionamento de tubagens e finalmente selecção de equipamento. Procede-se assim também ao estudo um sistema apenas a NH3 (R-717) com as suas diversas características nomeadamente no cálculo de caudais, diagrama pressão-entalpia, dimensionamento de tubagens e finalmente selecção dos equipamentos mais importantes, para que desta forma se proceda à comparação dos dois sistemas a nível energético, consumo eléctrico e manutenção de equipamentos. Finalmente proceder-se-á interpretação de resultados com o objectivo final de escolher a melhor solução nos vários parâmetros de comparação, para o esquema em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho que a seguir se apresenta tem como objectivo descrever a criação de um modelo que sirva de suporte a um sistema de apoio à decisão sobre o risco inerente à execução de projectos na área das Tecnologias de Informação (TI) recorrendo a técnicas de mineração de dados. Durante o ciclo de vida de um projecto, existem inúmeros factores que contribuem para o seu sucesso ou insucesso. A responsabilidade de monitorizar, antever e mitigar esses factores recai sobre o Gestor de Projecto. A gestão de projectos é uma tarefa difícil e dispendiosa, consome muitos recursos, depende de numerosas variáveis e, muitas vezes, até da própria experiência do Gestor de Projecto. Ao ser confrontado com as previsões de duração e de esforço para a execução de uma determinada tarefa, o Gestor de Projecto, exceptuando a sua percepção e intuição pessoal, não tem um modo objectivo de medir a plausibilidade dos valores que lhe são apresentados pelo eventual executor da tarefa. As referidas previsões são fundamentais para a organização, pois sobre elas são tomadas as decisões de planeamento global estratégico corporativo, de execução, de adiamento, de cancelamento, de adjudicação, de renegociação de âmbito, de adjudicação externa, entre outros. Esta propensão para o desvio, quando detectada numa fase inicial, pode ajudar a gerir melhor o risco associado à Gestão de Projectos. O sucesso de cada projecto terminado foi qualificado tendo em conta a ponderação de três factores: o desvio ao orçamentado, o desvio ao planeado e o desvio ao especificado. Analisando os projectos decorridos, e correlacionando alguns dos seus atributos com o seu grau de sucesso o modelo classifica, qualitativamente, um novo projecto quanto ao seu risco. Neste contexto o risco representa o grau de afastamento do projecto ao sucesso. Recorrendo a algoritmos de mineração de dados, tais como, árvores de classificação e redes neuronais, descreve-se o desenvolvimento de um modelo que suporta um sistema de apoio à decisão baseado na classificação de novos projectos. Os modelos são o resultado de um extensivo conjunto de testes de validação onde se procuram e refinam os indicadores que melhor caracterizam os atributos de um projecto e que mais influenciam o risco. Como suporte tecnológico para o desenvolvimento e teste foi utilizada a ferramenta Weka 3. Uma boa utilização do modelo proposto possibilitará a criação de planos de contingência mais detalhados e uma gestão mais próxima para projectos que apresentem uma maior propensão para o risco. Assim, o resultado final pretende constituir mais uma ferramenta à disposição do Gestor de Projecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com vista a revolucionar o sector das comunicações móveis, muito à custa dos elevados débitos prometidos, a tecnologia LTE recorre a uma técnica que se prevê que seja bastante utilizada nas futuras redes de comunicações móveis: Relaying. Juntamente com esta técnica, o LTE recorre à técnica MIMO, para melhorar a qualidade da transmissão em ambientes hostis e oferecer elevados ritmos de transmissão. No planeamento das próximas redes LTE, o recurso à técnica Relaying é frequente. Esta técnica, tem como objectivo aumentar a cobertura e/ou capacidade da rede, e ainda melhorar o seu desempenho em condições de fronteira de célula. A performance de uma RS depende da sua localização, das condições de propagação do canal rádio a que tanto a RS como o EU estão sujeitos, e ainda da capacidade que a RS tem de receber, processar e reencaminhar a informação. O objectivo da tese é estudar a relação existente entre o posicionamento de uma RS e o seu desempenho. Desta forma, pretende-se concluir qual a posição ideal de uma RS (tanto do tipo AF como SDF). Para além deste estudo, é apresentado um comparativo do desempenho dos modos MIMO TD e OL-SM, onde se conclui em que condições deverão ser utilizados, numa rede LTE equipada com FRSs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é efectuado, não só o diagnóstico em regime permanente, mas também o estudo, simulação e análise do comportamento dinâmico da rede eléctrica da ilha de São Vicente em Cabo Verde. Os estudos de estabilidade transitória desempenham um importante papel, tanto no planeamento como na operação dos sistemas de potência. Tais estudos são realizados, em grande parte, através de simulação digital no domínio do tempo, utilizando integração numérica para resolver as equações não-lineares que modelam a dinâmica do sistema e dependem da existência de registos reais de perturbação (ex: osciloperturbografia). O objectivo do trabalho será também verificar a aplicabilidade dos requisitos técnicos que as unidades geradoras devem ter, no que concerne ao controlo de tensão, estabelecidos na futura regulamentação europeia desenvolvida pela ENTSO-E (European Network Transmission System Operator for Electricity). De entre os requisitos analisou-se a capacidade das máquinas existentes suportarem cavas de tensão decorrentes de curto-circuitos trifásicos simétricos, Fault Ride Through, no ponto de ligação à rede. Identificaram-se para o efeito os factores que influenciam a estabilidade desta rede, em regime perturbado nomeadamente: (i) duração do defeito, (ii) caracterização da carga, com e sem a presença do sistema de controlo de tensão (AVR) em unidades de geração síncronas. Na ausência de registos reais sobre o comportamento do sistema, conclui-se que este é sensível à elasticidade das cargas em particular do tipo potência constante, existindo risco de perda de estabilidade, neste caso, para defeitos superiores a 5ms sem AVR. A existência de AVR nesta rede afigura-se como indispensável para garantir estabilidade de tensão sendo contudo necessário proceder a uma correcta parametrização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

INTRODUÇÃO: O encontro de Aedes albopictus na cidade de Cananéia, região Sudeste do Estado de São Paulo, Brasil, ensejou a ocasião de realizar observações que visassem avaliar a produtividade de criadouro grande e permanente. Como objetivo, após selecionar o habitat a ser estudado, tentou-se avaliar-lhe a contribuição para a densidade local do mosquito. MATERIAL E MÉTODO: Em área predeterminada procedeu-se a levantamento de criadouros potenciais. Constatada a presença da espécie, foi selecionado um dos recipientes que preenchia os requisitos desejados. O acompanhamento foi feito de maneira ininterrupta, no período de novembro de 1996 a maio de 1997. As observações obdeceram a ritmo quinzenal retirando, cada vez, amostra da água correspondente a 0,14, ou seja, um sétimo do volume total de 70 litros. Procurou-se coletar, identificar e numerar, por sexo, as pupas existentes. Concomitantemente, procedeu-se à captura de formas adultas. Foi utilizada a isca humana das 15:00 às 18:00h, instalada a cerca de 6 metros do mencionado criadouro. Finda essa coleta, foi feita aspiração com 30 min. de duração em locais de abrigo representados pela abundante vegetação circunjacente. RESULTADOS: Nas coletas de formas imaturas do criadouro, o Ae. albopictus compareceu com 44,9%. Ao longo de 15 amostras regularmente realizadas obteve-se a média de 31,13 pupas pertencentes a essa espécie. O índice de emergência(E) foi de 2,1. A multiplicação desse valor por sete forneceu a média diária de 14,7 fêmeas. Nas coletas de adultos desse sexo, a média de Williams para a isca humana foi de 30,7, enquanto a densidade média horária da aspiração dos locais de abrigo foi de 9,2. O cálculo do acúmulo diário concluiu pela presença de 22,8 fêmeas, por dia, capazes de freqüentar a isca humana, nessa situação e condições. DISCUSSÃO: A contagem de pupas possibilitou estimar a produtividade de criadouro de Ae. albopictus, tipo grande (dez litros ou mais) e de caráter permanente. A água acumulada no recipiente estudado apresentou-se rica em matéria orgânica, predominantemente de natureza vegetal. Neste particular, não há como compará-lo a reservatórios destinados ao armazenamento de água para uso doméstico. A falta de manutenção desses reservatórios poderá contribuir para levar a situação, se não idêntica, pelo menos próxima da evidenciada no trabalho. Embora se trate de espécie até agora não incriminada como vetora, é de se admitir que as observações encontradas possam ser utilizadas no programa de erradicação de Ae. aegypti que está em curso no Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo deste trabalho passa pelo desenvolvimento de uma ferramenta de simulação dinâmica de recursos rádio em LTE no sentido descendente, com recurso à Framework OMNeT++. A ferramenta desenvolvida permite realizar o planeamento das estações base, simulação e análise de resultados. São descritos os principais aspectos da tecnologia de acesso rádio, designadamente a arquitectura da rede, a codificação, definição dos recursos rádio, os ritmos de transmissão suportados ao nível de canal e o mecanismo de controlo de admissão. Foi definido o cenário de utilização de recursos rádio que inclui a definição de modelos de tráfego e de serviços orientados a pacotes e circuitos. Foi ainda considerado um cenário de referência para a verificação e validação do modelo de simulação. A simulação efectua-se ao nível de sistema, suportada por um modelo dinâmico, estocástico e orientado por eventos discretos de modo a contemplar os diferentes mecanismos característicos da tecnologia OFDMA. Os resultados obtidos permitem a análise de desempenho dos serviços, estações base e sistema ao nível do throughput médio da rede, throughput médio por eNodeB e throughput médio por móvel para além de permitir analisar o contributo de outros parâmetros designadamente, largura de banda, raio de cobertura, perfil dos serviços, esquema de modulação, entre outros. Dos resultados obtidos foi possível verificar que, considerando um cenário com estações base com raio de cobertura de 100 m obteve-se um throughput ao nível do utilizador final igual a 4.69494 Mbps, ou seja, 7 vezes superior quando comparado a estações base com raios de cobertura de 200m.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Num mundo em que as redes de telecomunicações estão em constante evolução e crescimento, o consumo energético destas também aumenta. Com a evolução tanto por parte das redes como dos seus equipamentos, o custo de implementação de uma rede tem-se reduzido até ao ponto em que o maior obstáculo para o crescimento das redes é já o seu custo de manutenção e funcionamento. Nas últimas décadas têm sido criados esforços para tornar as redes cada fez mais eficientes ao nível energético, reduzindo-se assim os seus custos operacionais, como também a redução dos problemas relacionados com as fontes de energia que alimentam estas redes. Neste sentido, este trabalho tem como objectivo principal o estudo do consumo energético de redes IP sobre WDM, designadamente o estudo de métodos de encaminhamento que sejam eficientes do ponto de vista energético. Neste trabalho formalizámos um modelo de optimização que foi avaliado usando diferentes topologias de rede. O resultado da análise mostrou que na maioria dos casos é possível obter uma redução do consumo na ordem dos 25%.