988 resultados para Acesso ao computador
Resumo:
Diversas aplicações industriais relevantes envolvem os processos de adsorção, citando como exemplos a purificação de produtos, separação de substâncias, controle de poluição e umidade entre outros. O interesse crescente pelos processos de purificação de biomoléculas deve-se principalmente ao desenvolvimento da biotecnologia e à demanda das indústrias farmacêutica e química por produtos com alto grau de pureza. O leito móvel simulado (LMS) é um processo cromatográfico contínuo que tem sido aplicado para simular o movimento do leito de adsorvente, de forma contracorrente ao movimento do líquido, através da troca periódica das posições das correntes de entrada e saída, sendo operado de forma contínua, sem prejuízo da pureza das correntes de saída. Esta consiste no extrato, rico no componente mais fortemente adsorvido, e no rafinado, rico no componente mais fracamente adsorvido, sendo o processo particularmente adequado a separações binárias. O objetivo desta tese é estudar e avaliar diferentes abordagens utilizando métodos estocásticos de otimização para o problema inverso dos fenômenos envolvidos no processo de separação em LMS. Foram utilizados modelos discretos com diferentes abordagens de transferência de massa, com a vantagem da utilização de um grande número de pratos teóricos em uma coluna de comprimento moderado, neste processo a separação cresce à medida que os solutos fluem através do leito, isto é, ao maior número de vezes que as moléculas interagem entre a fase móvel e a fase estacionária alcançando assim o equilíbrio. A modelagem e a simulação verificadas nestas abordagens permitiram a avaliação e a identificação das principais características de uma unidade de separação do LMS. A aplicação em estudo refere-se à simulação de processos de separação do Baclofen e da Cetamina. Estes compostos foram escolhidos por estarem bem caracterizados na literatura, estando disponíveis em estudos de cinética e de equilíbrio de adsorção nos resultados experimentais. De posse de resultados experimentais avaliou-se o comportamento do problema direto e inverso de uma unidade de separação LMS visando comparar os resultados obtidos com os experimentais, sempre se baseando em critérios de eficiência de separação entre as fases móvel e estacionária. Os métodos estudados foram o GA (Genetic Algorithm) e o PCA (Particle Collision Algorithm) e também foi feita uma hibridização entre o GA e o PCA. Como resultado desta tese analisouse e comparou-se os métodos de otimização em diferentes aspectos relacionados com o mecanismo cinético de transferência de massa por adsorção e dessorção entre as fases sólidas do adsorvente.
Resumo:
Este texto é uma reflexão sobre os pressupostos que fizeram parte do meu processo de trabalho em artes visuais nos últimos anos e que continuam em desenvolvimento. A investigação parte de um pressuposto gerado de três séries de trabalhos, Bambu, bambuí, Sobreposições e Imersão Rio, que se conectam por um deslocamento entre três ambientes: paisagem, ateliê e galeria. Ao rastrear as influências recorrentes em minha produção, acesso um momento histórico específico por onde permeio minha pesquisa e procuro compreender os procedimentos, ações e estratégias que compõem minha poética artística
Resumo:
O presente estudo tem como objetivo geral traçar um perfil das escolhas léxico-gramaticais da escrita em inglês de um grupo de aprendizes brasileiros na cidade do Rio de Janeiro, ao longo dos anos de 2009 a 2012, através da análise de sua produção de quadrigramas (ou blocos de quatro itens lexicais usados com frequência por vários aprendizes) em composições escritas como parte da avaliação final de curso. Como objetivo específico, a pesquisa pretendeu analisar se os quadrigramas produzidos estavam dentre aqueles que haviam sido previamente ensinados para a execução da redação ou se pertenceriam a alguma outra categoria, isto é, quadrigramas já incorporados ao uso da língua ou quadrigramas errôneos usados com abrangência pela população investigada. Para tal, foram coletadas composições escritas por aprendizes de mesmo nível de proficiência de várias filiais de um mesmo curso livre de inglês na cidade do Rio de Janeiro. Em seguida, essas composições foram digitadas e anotadas para constituírem um corpus digital facilmente identificável em termos do tipo e gênero textual, perfil do aprendiz, filial e área de origem do Rio de Janeiro. O estudo faz uso de preceitos e métodos da Linguística de Corpus, área da Linguística que compila grandes quantidades de textos e deles extrai dados com o auxílio de um programa de computador para mapear uso, frequência, distribuição e abrangência de determinados fenômenos linguístico ou discursivo. O resultado demonstra que os aprendizes investigados usaram poucos quadrigramas ensinados e, coletivamente, preferiram usar outros que não haviam sido ensinados nas aulas específicas para o nível cursado. O estudo também demonstrou que quando o gênero textual faz parte de seu mundo pessoal, os aprendizes parecem utilizar mais quadrigramas previamente ensinados. Isto pode querer dizer que o gênero pode influenciar nas escolhas léxico-gramaticais corretas. O estudo abre portas para se compreender a importância de blocos léxico-gramaticais em escrita em L2 como forma de assegurar fluência e acuracidade no idioma e sugere que é preciso proporcionar maiores oportunidades de prática e conscientização dos aprendizes quanto ao uso de tais blocos
Resumo:
A Tese apresenta os resultados de um estudo que buscou conhecer de que modo os usos dos dispositivos móveis e ubíquos podem mediar a superação do desencontro entre as práticas juvenis e a cultura escolar, entendendo que esse desencontro tem se traduzido por tensões que, se já vinham acontecendo a partir da introdução do computador em todas as áreas da produção humana, ampliam-se ainda mais com o crescente uso de celulares e smartphones por jovens estudantes, dentro e fora das salas de aula. A pesquisa - realizada através de oficinas com alunos do sétimo ao nono ano de uma escola da Rede Municipal do Rio de Janeiro - propôs e criou situações favoráveis à compreensão dos modos pelos quais as tecnologias móveis e ubíquas podem ser apropriadas pelo campo da Educação. Os conceitos bakhtinianos de alteridade, dialogismo e exotopia orientaram o encaminhamento metodológico do estudo. A complexidade das questões relativas à interseção entre educação, comunicação, juventudes, mobilidade, cidade, redes sociais, subjetividades, foi examinada com base nas contribuições teóricas de Lucia Santaella, André Lemos, Pierre Lévy, Bruno Latour, Lucia Rabello de Castro, Paulo Carrano e Julio Dayrell, entre outras. Os resultados apontam para a pertinência de se considerar os usos dos referidos artefatos como mediadores de práticas pedagógicas mais concernentes com as práticas culturais dos sujeitos contemporâneos.
Resumo:
O estudo que apresento está assentado em questões, cujo aprofundamento pretende trazer contribuição à ressignificação dos processos de ensino-aprendizagem, especialmente no âmbito da geometria espacial. Dentre as questões destaco: (1) a relação entre cibercultura e processos de ensinar-aprender, especialmente no que se refere ao conteúdo da geometria espacial, (2) os modos de sentir, de expressar-se e de aprender que a mediação da cultura digital traz contemporaneamente para os jovens; (3) a pesquisa entendida como acontecimento/experiência, cuja dimensão de intervenção permite a pesquisador e pesquisados relacionarem-se dialogicamente, reconhecendo-se como co-autores do processo de investigação. O principal interesse da pesquisa foi investigar se a dinâmica do uso das tecnologias em redes, própria da cibercultura, pode ressignificar o aprendizado do conhecimento de geometria espacial de jovens alunos do Ensino Médio. A abordagem teórico-metodológica está fundamentada nos princípios bakhtinianos da dialogia e da alteridade e no conceito vigotskiano de mediação. Sob a orientação da abordagem histórico-cultural, outros interlocutores teóricos contribuiram de modo significativo para a compreensão das questões que envolvem a relação entre educação e processos comunicacionais pós-massivos, tendo sido indispensáveis à construção e interpretação dos dados Dentre eles, cito Lucia Santaella, Maria Teresa Freitas, Pierre Lévy, Marília Amorim, Maria Helena Bonilla, Nelson Pretto, Edmea Santos, Guaracira Gouvêa, Maria Luiza Oswald, entre outros. O estudo foi realizado numa escola da rede estadual na cidade de Cabo Frio/RJ, sendo sujeitos da pesquisa 78 alunos/as do 2 e 3 ano do Ensino Médio. Para colher as informações de caráter objetivo, foi aplicado um questionário através do aplicativo Google Docs. Os dados qualitativos foram construídos por intermédio da dinâmica de convergência de mídias que engloba a metodologia Webquest, a interface wiki e o software Geogebra. Tendo em vista os pressupostos do estudo que relacionam propostas autorais, posturas alteritárias e práticas cotidianas procurei construir uma estratégia metodológica em que a apropriação das dinâmicas ciberculturais e das interfaces digitais fosse capaz de me auxiliar a identificar como usar estes dispositivos no processo de ressignificação da construção do conhecimento geométrico, bem como descobrir os limites de sua aplicação. Os resultados alcançados, ainda que provisórios dado o inacabamento dos acontecimentos que fazem da pesquisa uma experiência inacabada, apontam para a necessidade de reconhecer os jovens como produtores de saberes que deveriam ser legitimados para que a prática de ensinar-aprender geometria resultasse em conhecimento que articula ciência e vida cotidiana. Essa foi a valiosa lição que a pesquisa trouxe à minha própria prática de professora de matemática, lição que, espero, possa ecoar para outros professores.
Resumo:
A prevalência de dor lombar e cervical na adolescência é tão elevada quanto nos adultos e seu início, na adolescência, aumenta o risco de desenvolver dor crônica na vida adulta. Existem poucos estudos que tenham investigado como são os hábitos posturais dos adolescentes durante o tempo que estão em atividades passivas em casa e se esses hábitos estão associados à dor lombar e à dor cervical. Objetivo: Investigar a prevalência de dor lombar (DL) e de dor cervical (DC) em adolescentes e suas associações com hábitos posturais domiciliares enquanto estão assistindo a TV e/ou usando o computador. Métodos: Estudo transversal com adolescentes de uma escola pública de ensino médio do Rio de Janeiro. Os estudantes responderam questões relativas a variáveis sociodemográficas, ao estilo de vida, aos hábitos posturais (ilustrações), ao tempo assistindo a TV, ao tempo usando o computador, ao tempo usando o videogame e sobre a presença da DL e da DC. Foi utilizada regressão logística multivariada para analisar a associação entre hábitos posturais domiciliares e dor lombar e cervical. Resultados: Foram 1102 participantes. A prevalência de DL foi de 46,8% (18,2% dor lombar crônica [DLC] e 28,6% dor lombar aguda [DLA]. A prevalência de dor cervical aguda (DCA) foi de 32,9%. Posturas slump (excessivamente relaxadas) ao assistir a TV e ao usar o computador de mesa estiveram associadas com DLC (RC [razão de chances] 3,22, IC 95% 1,38 7,5 e RC 1,7, IC 95% 1,06 2,73). Participantes que assistiam a TV sentados na cama tiveram uma RC de 2,14 (IC 95% 1,06 4,32) para DLA e os que usavam o notebook em decúbito ventral na cama tiveram uma RC de 2,26 (IC 95% 1,02 5,01) para DLA. Os participantes que assistiam a TV em decúbito dorsal por 2 horas ou mais tiveram uma RC de 6,21 (IC 95% 1,45 26,52) para DCA. Aqueles que disseram que mudavam de postura com frequência, ao usar o computador de mesa por 2 horas ou mais, tiveram uma RC de 0,34 (IC 95% 0,14 0,85) para DCA. Conclusão: Os nossos achados apoiam a elevada prevalência de DL e de DC na adolescência e adicionam a associação com os hábitos posturais domiciliares.
Resumo:
A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.
Resumo:
Entre 06/08/11 e 25/02/12 foram obtidas séries temporais contínuas de intensidade e direção das correntes e intensidade do eco ao longo de toda a coluna dágua, e medições, de temperatura e pressão, próximas ao fundo, na região adjacente ao canal de acesso à baía de Sepetiba (230'16.5"S e 4359'29.4"W, profundidade local de aproximadamente 25 m) através da utilização de um perfilador acústico ADCP (Acoustic Doppler Current Profiler), modelo WorkHorse BroadBand Sentinel (600 kHz, Teledyne-RDI). A partir dos dados adquiridos, observou-se a existência de correntes intensas próximo ao fundo (até 1,02 m/s), principalmente durante os períodos de enchente sob condições de sizígia, que são fortemente influenciadas pela orientação do canal de navegação. A análise das séries temporais das componentes da velocidade mostraram, em conformidade ao relatado por alguns autores, que esta é uma baía cuja circulação é fortemente influenciada pela dinâmica da maré sendo M2, M4, M6 e M8 as principais componentes harmônicas que atuam no sistema. Além disso, observou-se significativa assimetria da maré, sendo os períodos de enchente consideravelmente mais curtos e associados às correntes mais intensas, o que permite concluir que no setor investigado da baía de Sepetiba há dominância de enchente. Outra característica interessante da área de estudo relaciona-se à observação de que ventos intensos de S-SO são responsáveis pelo empilhamento de água no interior da baía, sendo que altura do nível da superfície da água apresenta relação direta com as variações da pressão atmosférica local. Em diversos períodos, quando há atuação de ventos de E-NE é possível encontrar Água Central do Atlântico Sul (ACAS) no interior da baía de Sepetiba, desde a sua entrada principal até as adjacências da ilha Guaíba. Além disso, foram identificadas diversas oscilações de baixa frequência que puderam ser associadas à variação da pressão atmosférica. Oscilações de alta frequência foram associadas à dinâmica da maré, a co-oscilações da maré e ao vento. Em relação à concentração de Material Particulado em Suspensão (MPS), durante os períodos de sizígia foram registradas as maiores concentrações material particulado na coluna dágua. Durante os períodos de sizígia, o fluxo de MPS é mais pronunciado do que durante as quadraturas, sendo que, independente do período da maré, o fluxo cumulativo de material particulado em suspensão é dirigido para o interior da baía de Sepetiba. Considerando o alinhamento dos vetores de velocidade em conformidade a direção preferencial do canal de navegação, tem-se que o fluxo cumulativo de MPS varia entre dirigido para SE na região próxima ao fundo, a dirigido para NE próximo ao topo da coluna dágua, o que sugere a deflexão do movimento das correntes em consequência do atrito. Ao longo de um dia, o fluxo do material particulado é mais pronunciado durante as enchentes, quando há aumento das tensões cisalhantes que atuam sobre o leito da baía redisponibilizando para a coluna dágua o material que estava depositado no fundo.
Resumo:
Esta dissertação investiga a aplicação dos algoritmos evolucionários inspirados na computação quântica na síntese de circuitos sequenciais. Os sistemas digitais sequenciais representam uma classe de circuitos que é capaz de executar operações em uma determinada sequência. Nos circuitos sequenciais, os valores dos sinais de saída dependem não só dos valores dos sinais de entrada como também do estado atual do sistema. Os requisitos cada vez mais exigentes quanto à funcionalidade e ao desempenho dos sistemas digitais exigem projetos cada vez mais eficientes. O projeto destes circuitos, quando executado de forma manual, se tornou demorado e, com isso, a importância das ferramentas para a síntese automática de circuitos cresceu rapidamente. Estas ferramentas conhecidas como ECAD (Electronic Computer-Aided Design) são programas de computador normalmente baseados em heurísticas. Recentemente, os algoritmos evolucionários também começaram a ser utilizados como base para as ferramentas ECAD. Estas aplicações são referenciadas na literatura como eletrônica evolucionária. Os algoritmos mais comumente utilizados na eletrônica evolucionária são os algoritmos genéticos e a programação genética. Este trabalho apresenta um estudo da aplicação dos algoritmos evolucionários inspirados na computação quântica como uma ferramenta para a síntese automática de circuitos sequenciais. Esta classe de algoritmos utiliza os princípios da computação quântica para melhorar o desempenho dos algoritmos evolucionários. Tradicionalmente, o projeto dos circuitos sequenciais é dividido em cinco etapas principais: (i) Especificação da máquina de estados; (ii) Redução de estados; (iii) Atribuição de estados; (iv) Síntese da lógica de controle e (v) Implementação da máquina de estados. O Algoritmo Evolucionário Inspirado na Computação Quântica (AEICQ) proposto neste trabalho é utilizado na etapa de atribuição de estados. A escolha de uma atribuição de estados ótima é tratada na literatura como um problema ainda sem solução. A atribuição de estados escolhida para uma determinada máquina de estados tem um impacto direto na complexidade da sua lógica de controle. Os resultados mostram que as atribuições de estados obtidas pelo AEICQ de fato conduzem à implementação de circuitos de menor complexidade quando comparados com os circuitos gerados a partir de atribuições obtidas por outros métodos. O AEICQ e utilizado também na etapa de síntese da lógica de controle das máquinas de estados. Os circuitos evoluídos pelo AEICQ são otimizados segundo a área ocupada e o atraso de propagação. Estes circuitos são compatíveis com os circuitos obtidos por outros métodos e em alguns casos até mesmo superior em termos de área e de desempenho, sugerindo que existe um potencial de aplicação desta classe de algoritmos no projeto de circuitos eletrônicos.
Resumo:
Ensaio não destrutivo é uma ferramenta essencial quando um equipamento, dispositivo ou componente não pode ser submetido a procedimentos destrutivos ou invasivos devido a razões de segurança, alto custo ou outras restrições físicas ou logísticas. Dentro deste quadro radiografias por transmissão com raios gama e nêutrons térmicos são técnicas singulares para inspecionar um objeto e desvendar sua estrutura interna devido à capacidade de atravessar uma vasta gama de materiais utilizados na indústria. Grosso modo, raios gama são mais atenuados por materiais pesados enquanto nêutrons térmicos são mais atenuados por materiais mais leves, tornando-as ferramentas complementares. Este trabalho apresenta os resultados obtidos na inspeção de vários componentes mecânicos, através da radiografia por transmissão com nêutrons térmicos e raios gama. O fluxo de nêutrons térmicos de 4,46x105 n.cm-2.s-1 disponível no canal principal do reator de pesquisa Argonauta do Instituto de Engenharia Nuclear foi usado como fonte para as imagens radiográficas com nêutrons. Raios dekeV emitidos pelo 198Au, também produzido no reator, foram usados como fonte de radiação para radiografias . Imaging Plates, especificamente produzidos para operar com nêutrons térmicos ou com raios X, foram empregados como detectores e dispositivos de armazenamento e captação de imagens para cada uma dessas radiações. Esses dispositivos exibem varias vantagens quando comparados ao filme radiográfico convencional. Com efeito, além de maior sensibilidade e serem reutilizáveis não são necessários câmaras escuras e processamento químico para a revelação. Em vez disso, ele é lido por um feixe de laser que libera elétrons armadilhados na rede cristalina durante a exposição à radiação, fornecendo uma imagem final digital. O desempenho de ambos os sistemas de aquisição de imagens, assim constituído, foi avaliado com respeito à sensibilidade, resolução espacial, linearidade e range dinâmico, incluído uma comparação com sistemas radiográficos com nêutrons empregando filmes e folhas de gadolínio como conversor de nêutrons em partículas carregadas. Além desta caracterização, diversos equipamentos e componentes foram radiografados com ambos os sistemas visando-se avaliar suas capacidades de desvendar a estrutura interna desses objetos e detectar estruturas e estados anormais. Dentro desta abordagem, uma neutrongrafia detectou a presença de material cerâmico remanescente empregado como molde no processo de fabricação nos canais de refrigeração de uma aleta do estator de uma turbina tipo turbo-fan, que deveria estar livre desse material. O reostato danificado de um sensor de pressão automotivo, foi identificado por neutrongrafia, embora nesse caso a radiografia também conseguiu realizar essa tarefa com melhor resolução, corroborando assim as curvas de resolução espacial obtidas na caracterização dos dois sistemas. A homogeneidade da distribuição do material encapsulado em uma gaxeta explosiva de chumbo utilizada na indústria aeroespacial foi igualmente verificada por neutrongrafia porque esse metal é relativamente transparente para nêutrons, mas suficientemente opaco para o explosivo rico em hidrogênio. Diversos outros instrumentos e componentes tais como variômetro, altímetro, bússola aeronáutica, injetor automotivo de combustível, foto-camera, disco rígido de computador, motor de passo, conectores eletrônicos e projéteis foram radiografados com ambos os sistemas visando avaliar suas habilidades em desvendar diferentes peculiaridades em função do agente interrogador.
Resumo:
O acesso ao tratamento da Doença de Fabry (DF) no sistema público de saúde nacional. Trata-se de uma pesquisa exploratória de corte transversal, centrada em elementos qualitativos, realizada com os profissionais e os pacientes portadores da DF, no Ambulatório de Genética Clínica do Hospital Universitário Gaffrée e Guinle - HUGG. Utilizou-se como coleta de dados a entrevista aberta e semiestruturada. Seu objetivo maior é identificar os aspectos bioéticos envolvidos no acesso ao tratamento da DF no SUS, e para tal buscamos tornar manifestos os argumentos morais dos profissionais do ambulatório, acerca da existência de uma política pública para o tratamento das doenças raras no SUS. A Bioética Principialista de Beauchamp e Childress, em seus princípios prima-facie: o respeito pela autonomia; a não maleficência; a beneficência e a justiça, é tomada como fundamentação teórica deste estudo. O tratamento dos dados se deu por meio do método de análise de conteúdo, de Bardin. A pesquisa contempla o percurso histórico das principais política públicas de saúde, e seus movimentos em direção à criação do SUS, e a integração dos hospitais universitários ao sistema público de saúde, em seus marcos legais. Ela também enfoca a mobilização da sociedade política e organizada em busca da materialização política pública de atenção às Doenças Raras. O estudo constatou que os princípios de Justiça e da Beneficência emergiram espontaneamente, e por vezes implicitamente, na fala do sujeitos da pesquisa, em suas justificativas morais para a criação de uma política pública para Doenças Raras. Ademais, é delineado o curso da doença na família, haja vista tratar-se de doença hereditária. Assinala-se de que modo a DF chegou do acaso a estas pessoas, e como estas chegaram ao diagnóstico e tratamento.
Resumo:
O objetivo deste estudo é discutir a associação entre padrão de consumo de álcool e dimensões de risco à exposição ao HIV, desdobradas em conhecimento sobre HIV e práticas sexuais entre universitários. Trata-se de uma pesquisa transversal com abordagem quantitativa, realizada com 416 universitários de 14 cursos distintos. Os dados foram coletados através de dois instrumentos e tratados através de estatística descritiva com o software SPSS 21.0. A pesquisa foi autorizada pelo Comitê de Ética em Pesquisa da Universidade do Estado do Rio de Janeiro, sob n 003.3.2012. A população de estudo é predominantemente do sexo masculino (59,6%), com faixa etária entre 19 a 22 anos (54,3%), de cor branca (57,5%), sem companheiros (69,2%) ou filhos (92,3%) e com maior percentual de católicos (31,3%) e daqueles que não possuem religião (33,7%). Destaca-se, ainda, que são possuidores de computador ou eletrônicos portáteis (98,8%) com fácil acesso à internet (96,8%). Os principais achados apontam que a maioria faz uso de álcool (60%), com a proporção de 7 homens para cada 3 mulheres. Relacionado ao AUDIT, foi identificado predomínio das zonas I (abstinência ou baixo risco-73,8%) e II (uso nocivo-20,4%). Sobre as relações sexuais, a maioria afirmou ter experiência sexual (69,5%), com idade da primeira relação entre 16 e 18 anos (54%), no entanto, mais homens (54,3%) afirmaram manter relações sexuais após o consumo de álcool do que mulheres (45,7%). Apesar do conhecimento sobre HIV/aids e álcool ser considerado como fator protetor pela literatura vigente, constatou-se que não há associação deste conhecimento com a prática sexual mais segura. Independente do padrão de consumo de bebidas alcoólicas, os universitários apresentam o mesmo tipo de prática sexual, muitas vezes se expondo à infecção ao HIV e outras doenças sexualmente transmissíveis. Dentre os dados analisados, um dos motivos de exposição ao HIV/Aids são as relações sexuais após a ingestão de bebida alcoólicas e o não uso de preservativos nestas situações. O consumo exagerado de bebidas alcoólicas está ligado ao sexo masculino e este grupo apresenta práticas sexuais de maior risco. Sugere-se que novos estudos possam analisar a relação de causa e efeito para verificar quais fatores podem influenciar de fato a exposição ao HIV de estudantes usuários de álcool. Estas informações são relevantes para conhecermos a atual demanda desse grupo e focar nas reais necessidades que são imperiosas para a prevenção dos futuros danos nocivos à saúde individual e coletiva. Torna-se necessário compreender qual é a demanda dos jovens em se expor a diversos riscos à saúde adotando práticas não seguras e, principalmente, o que de fato modula estas condutas.
Resumo:
A partir dos avanços obtidos pela industria farmacêutica surgiram diversos medicamentos para o combate de enfermidades. Esses medicamentos possuem efeito tópico similar porém com suaves modificações em sua estrutura bioquímica, com isso a concorrência entre as industrias farmacêuticas se torna cada vez mais acirrada. Como forma de comparar a efetividade desses medicamentos, surgem diversas metodologias, com o objetivo de encontrar qual seria o melhor medicamento para uma dada situação. Uma das metodologias estudadas é a comparação mista de tratamentos, cujo objetivo é encontrar a efetividade de determinadas drogas em estudos e/ou ensaios clínicos que abordem, mesmo que de maneira indireta, os medicamentos estudados. A utilização dessa metodologia é demasiadamente complexa pois requer conhecimento de linguagens de programação em ambientes estatísticos além do domínio sobre as metodologias aplicadas a essa técnica. O objetivo principal desse estudo é a criação de uma interface gráfica que facilite a utilização do MTC para usuários que não possuam conhecimento em linguagens de programação, que seja de código aberto e multiplataforma. A expectativa é que, com essa interface, a utilização de técnicas mais abrangentes e avançadas seja facilitada, além disso, venha tornar o ensinamento sobre o tema mais facilitado para pessoas que ainda não conhecem o método
Resumo:
Esta pesquisa tem como finalidade explorar os recursos de interação do usuário com a informação georreferenciada, utilizando o próprio ambiente físico e seus elementos como interface. A indexação geográfica de arquivos digitais e os recursos disponíveis pela computação móvel estabeleceram um novo modelo de interação com a informação. Cabe ao designer criar sistemas e interfaces que levem em consideração a localização do usuário no acesso da informação atribuída ao entorno. Foi identificado que as soluções desenvolvidas para esse propósito utilizam telas e outros aparatos tecnológicos que constrangem a relação do usuário com o ambiente e interferem na experiência interativa. Como desdobramento da pesquisa foi desenvolvido um aplicativo que dispensa a tela na visualização e interação com a camada informacional do ambiente físico. O sistema utiliza os sensores de localização e orientação presentes nos smartphones para interagir com o entorno mapeado e georreferenciado. Dessa forma, o usuário, ao apontar o aparelho e selecionar diretamente o objeto de interesse, recebe os dados atribuídos a ele. Sem a interferência de telas ou dispositivos imersivos, o próprio ambiente se apresenta como interface de interação, dispensando novos ícones ou símbolos e tornando a tecnologia mais sutil em seu uso cotidiano.
Resumo:
Neste trabalho é apresentada uma nova abordagem para obter as respostas impulsivas biauriculares (BIRs) para um sistema de aurilização utilizando um conjunto de redes neurais artificiais (RNAs). O método proposto é capaz de reconstruir as respostas impulsivas associadas à cabeça humana (HRIRs) por meio de modificação espectral e de interpolação espacial. A fim de cobrir todo o espaço auditivo de recepção, sem aumentar a complexidade da arquitetura da rede, uma estrutura com múltiplas RNAs (conjunto) foi adotada, onde cada rede opera uma região específica do espaço (gomo). Os três principais fatores que influenciam na precisão do modelo arquitetura da rede, ângulos de abertura da área de recepção e atrasos das HRIRs são investigados e uma configuração ideal é apresentada. O erro de modelagem no domínio da frequência é investigado considerando a natureza logarítmica da audição humana. Mais ainda, são propostos novos parâmetros para avaliação do erro, definidos em analogia com alguns dos bem conhecidos parâmetros de qualidade acústica de salas. Através da metodologia proposta obteve-se um ganho computacional, em redução do tempo de processamento, de aproximadamente 62% em relação ao método tradicional de processamento de sinais utilizado para aurilização. A aplicabilidade do novo método em sistemas de aurilização é reforçada mediante uma análise comparativa dos resultados, que incluem a geração das BIRs e o cálculo dos parâmetros acústicos biauriculares (IACF e IACC), os quais mostram erros de magnitudes reduzidas.