897 resultados para Impressoras (Processamento de dados)
Resumo:
Trata das questões de organização e recuperação da informação no caso específico do acervo do Centro de Pesquisa e História Contemporânea do Brasil – CPDOC. Baseia essa análise num estudo de caso do uso do serviço de referência da instituição prestado pela Sala de Consulta e também no utilização da base de dados Accessus. Traça um perfil do usuário do acervo da instituição além de um perfil de pesquisa desses indivíduos ao mapear o comportamento dos usuários diante da ferramenta Accessus. Aborda o contexto da elaboração da base de dados e investiga a criação da linguagem controlada em história e ciências afins que serviu de base para o Accessus. Problematiza as questões de acessibilidade da linguagem a um público não relacionado com a área. Pareia essa problematização com análise dos diferentes perfis de usuários. Discute a forma de indexação do acervo do CPDOC e suscita reflexões sobre esse processo que considere uma relação direta com o perfil dos usuários.
Resumo:
Vários resultados na literatura fornecem fortes evidências de que o processamento de memórias requerem a participação da proteína cinase C (PKC) em estruturas sabidamente necessárias para este processamento, como o hipocampo, a amígdala basolateral (ABL) e o córtex parietal posterior (CPP). Neste trabalho mostramos que o inibidor seletivo das isoformas cálcio-dependentes da PKC, Go 6976, produz um efeito amnésico dosedependente sobre a consolidação de memória espacial de longa duração em ratos submetidos ao treino no labirinto aquático de Morris (LAM), quando infundido na região CA1 do hipocampo dorsal 15 minutos pré-treino, imediatamente pós-treino ou 15 minutos pré-teste para esta tarefa, sem alterar a atividade locomotora dos animais. Ainda na tarefa do LAM, o Go 6976 também apresentou este efeito amnésico sobre a reconsolidação de memórias espaciais de longa duração recentes e antigas, bem como sobre a consolidação da memória espacial de longa duração relativa ao treino reverso no LAM, mas não teve efeito sobre a memória espacial de curta duração nem sobre a extinção da memória espacial de longa duração. Já na tarefa de esquiva inibitória (EI) o Go 6976 produziu um efeito amnésico quando infundido na ABL imediatamente ou 30 minutos pós-treino, ou no CPP 270 ou 360 minutos pós-treino, enquanto o inibidor não-seletivo das isoformas da PKC, Go 7874, produziu os mesmos efeitos, exceto por, no CPP, causar amnésia quando infundido 180 ao invés de 270 minutos pós-treino. Estes resultados indicam que as PKCs, sobretudo as cálcio-dependentes, são importantes para o processamento de memórias espaciais e aversivas, apresentando na consolidação de memórias aversivas distintos tempos críticos de ativação em diferentes estruturas cerebrais, e sendo necessárias para a aquisição, consolidação, evocação e reconsolidação de memórias espaciais.
Resumo:
O crescimento constante na geração de resíduos sólidos em todo o mundo tem estimulado estudos para os mais variados tipos de resíduos. As sucatas eletrônicas fazem parte deste universo de materiais obsoletos e/ou defeituosos que necessitam ser dispostos de maneira mais adequada ou então reciclados. Neste trabalho foram estudadas as Placas de Circuito Impresso que fazem parte das sucatas eletrônicas e que são encontradas em quase todos os equipamentos eletro-eletrônicos (computadores, televisores, VCR´s, DVD´s, telefones celulares, impressoras, etc.). Para realizar esse estudo foram coletadas placas de circuito impresso (PCI) obsoletas ou defeituosas de computadores pessoais que são atualmente a maior fonte deste tipo de resíduo. As PCI são compostas de uma maneira geral de polímeros, cerâmicos e metais, o que dificulta o seu processamento. Por outro lado a presença de metais base (como cobre) e metais preciosos estimulam estudos quanto a sua reciclagem. Também a presença de metais pesados como Pb e Cd, que tornam as placas resíduos perigosos, demonstram a necessidade de pesquisar soluções para este tipo de resíduo, a fim de que possam ser dispostos adequadamente, sem prejudicar o meio ambiente. Na primeira etapa deste trabalho foi utilizado processamento mecânico, como moagem, separação granulométrica, separação magnética e separação eletrostática para obter uma fração concentrada em metais (principalmente Cu, Pb e Sn) e uma outra fração contendo polímeros e cerâmicos. Ao final deste processo foi possível obter nas frações concentradas em metais uma concentração média de cobre de 50%. Na segunda etapa a fração concentrada em metais foi dissolvida com ácidos e enviada para uma eletro-obtenção a fim de recuperar os metais separadamente, neste primeiro momento o cobre. Por eletro-obtenção foram obtidos cátodos com teores de cobre acima de 96% Os resultados obtidos demonstram a viabilidade técnica de se recuperar o cobre utilizando processamento mecânico seguido de uma técnica eletrometalúrgica.
Resumo:
Este trabalho tem por objetivo analisar as mudanças no sistema informatizado de orçamentação prévia dos serviços de caldeiraria que são realizados nas paradas de manutenção das unidades de processamento da Refinaria Duque de Caxias da PETROBRAS. Para tal fim, apresenta-se, inicialmente, um breve histórico da legislação que orientou as contratações de serviços na PETROBRAS sob a óptica da exigência de uma orçamentação prévia e a contextualização desta orçamentação no processo de contratação da Refinaria Duque de Caxias. Em seguida, são estudadas as variáveis que influenciam o orçamento dos serviços em análise, inclusive àquelas referentes a tributos e impostos, bem como os sistemas informatizados (atual e anterior) que calculam os preços finais dos serviços. Concluiu-se que o novo sistema informatizado trouxe mmor confiabilidade aos valores encontrados, mas ainda há muito que ser feito nesta área, desde a determinação de índices de produtividade da mão-de-obra até o estudo mais detalhado dos insumos ligados à legislação trabalhista e tributária.
Resumo:
Sistemas de tomada de decisão baseados em Data Warehouse (DW) estão sendo cada dia mais utilizados por grandes empresas e organizações. O modelo multidimensional de organização dos dados utilizado por estes sistemas, juntamente com as técnicas de processamento analítico on-line (OLAP), permitem análises complexas sobre o histórico dos negócios através de uma simples e intuitiva interface de consulta. Apesar dos DWs armazenarem dados históricos por natureza, as estruturas de organização e classificação destes dados, chamadas de dimensões, não possuem a rigor uma representação temporal, refletindo somente a estrutura corrente. Para um sistema destinado à análise de dados, a falta do histórico das dimensões impossibilita consultas sobre o ambiente real de contextualização dos dados passados. Além disso, as alterações dos esquemas multidimensionais precisam ser assistidas e gerenciadas por um modelo de evolução, de forma a garantir a consistência e integridade do modelo multidimensional sem a perda de informações relevantes. Neste trabalho são apresentadas dezessete operações de alteração de esquema e sete operações de alteração de instâncias para modelos multidimensionais de DW. Um modelo de versões, baseado na associação de intervalos de validade aos esquemas e instâncias, é proposto para o gerenciamento dessas operações. Todo o histórico de definições e de dados do DW é mantido por esse modelo, permitindo análises completas dos dados passados e da evolução do DW. Além de suportar consultas históricas sobre as definições e as instâncias do DW, o modelo também permite a manutenção de mais de um esquema ativo simultaneamente. Isto é, dois ou mais esquemas podem continuar a ter seus dados atualizados periodicamente, permitindo assim que as aplicações possam consultar dados recentes utilizando diferentes versões de esquema.
Resumo:
A proposta de um Sistema de Cadastro Computorizado de Recursos Medico-Assistenciais para o Instituto Nacional de Assistencia Medica da Previdencia Social - INAMPS é o objetivo da munografia. Os subsidios necessarios a fOrmulação da proposta foram obtidos atraves da realização de pesqUisas preliminares sobre: o desenvolvimento da Assistência Medica na evolução da Previdência Social Brasileira; os Atos Normativos; os formulários e rotinas, bem como as necessidades gerenciais e os sistemas de processamento eletrônico de dados.
Resumo:
Este trabalho objetivou identificar as principais tecnologias disponíveis de TI (Tecnologia da Informação) e de AIDC (Identificação e Captura Automática de Dados) para a área de varejo de autosserviço, para preencher a lacuna existente na literatura, sobre os benefícios de se usar novas tecnologias no ponto de venda, com vistas a otimizar sua operação. Para tanto, foram estudados os principais processos operacionais de uma loja de varejo de autosserviço, com vistas a identificar como as Tecnologias da Informação (TI) e de Identificação e Captura Automática de Dados (AIDC), poderiam ajudar a melhorar os resultados operacionais e agregar valor ao negócio. Para analisar suas proposições (de que o uso de TI e de AIDC podem ajudar na: redução dos tempos dos processos de retaguarda; redução do número de operações no ponto de venda; prevenção de perdas; redução dos custos e dos tempos para a realização dos inventários; redução do número de funcionários nas lojas; redução do tempo de fila no caixa; redução de rupturas e no aumento da eficiência operacional da loja), foram pesquisados diversos estudos de casos mundiais de empresas do segmento de varejo, que implementaram as tecnologias de AIDC e TI, principalmente a de RFID, para saber quais foram os impactos do uso destas tecnologias em suas operações e, em seguida, foi desenvolvido um Estudo de Caso abrangente, por meio do qual se objetivou entender os benefícios empresariais reais do uso destas tecnologias para o varejo de autosserviço. Como resultado final, foi possível identificar as mudanças nos processos operacionais do varejo de autosserviço, bem como os benefícios gerados em termos de custo, produtividade, qualidade, flexibilidade e inovação. O trabalho também evidenciou os pontos críticos de sucesso para a implementação da TI e das AIDC no varejo, que são: a revisão dos processos operacionais; a correta definição do hardware; dos insumos; do software; das interferências do ambiente físico; da disponibilização dos dados/informações dos produtos; das pessoas/funcionários e dos parceiros de negócios/fornecedores. De maneira mais específica, este trabalho buscou contribuir para o enriquecimento do campo de estudos no segmento de varejo e para o uso da tecnologia da informação, no Brasil, já que o assunto sobre o uso e o impacto de novas tecnologias no ponto de vendas, ainda permanece pouco explorado academicamente.
Resumo:
A presente pesquisa visa identificar os fatores que influenciam a inovação tecnológica em micro e pequenas empresas brasileiras, por meio da análise dos dados secundários da Pesquisa de Inovação Tecnológica (PINTEC 2008), conduzida pelo Instituto Brasileiro de Geografia e Estatística (IBGE) junto a 16.371 empresas de ramos industriais e de serviços selecionados. Para tanto, foi feita a modelagem estatística dos microdados relativos à sub-amostra formada pelas 3.092 micro e pequenas empresas inquiridas pela PINTEC 2008. A análise das correlações entre as variáveis que influenciam as inovações e quatro variáveis que caracterizam o tipo e a abrangência das inovações tecnológicas – inovação em produto para o mercado nacional, inovação em produto para o mercado mundial, inovação em processo para o mercado nacional, inovação em processo para o mercado mundial – permitiu selecionar as variáveis independentes mais significativas em termos de influência sobre a ocorrência de inovação em micro e pequenas empresas. Com base nessas mesmas correlações, foram elaboradas regressões logísticas (logit), nas quais as variáveis dependentes escolhidas foram as quatro variáveis caracterizadoras do tipo e da abrangência da inovação acima mencionadas, e as variáveis independentes foram selecionadas dentre aquelas com maior poder explicativo sobre a ocorrência de inovação. Foram tomadas as devidas precauções para evitar a ocorrência de multicolinearidade nas regressões. Os resultados das regressões, analisados à luz da revisão bibliográfica, revelam a importância das variáveis independentes para a ocorrência de inovação em micro e pequenas empresas, e ajudam nas reflexões sobre possíveis melhorias nas políticas de estímulo à inovação tecnológica em micro e pequenas empresas.
Resumo:
Hipertrofia ventricular esquerda é um importante fator de risco em doença cardiovascular e pode ser responsável por parte do elevado risco cardiovascular associado a diabetes. Apesar de que o estresse hemodinâmico seja classicamente indicado como causa da injúria miocárdica que leva ao remodelamento, a injúria associada aos fatores neuro-humorais e a sinalização celular através da ativação imuno-inflamatória também desempenham um papel, acompanhando os mecanismos recentemente descritos na síndrome metabólica, particularmente na obesidade, onde a ativação do sistema imune inato leva a uma resposta inadequada crônica mediada por citocinas em diversos sistemas corpóreos. A ecocardiografia tem sido usada para identificar anormalidades da estrutura cardíaca, porém, variações metodológicas e os diversos ajustes para os determinantes da massa ventricular como idade, sexo, tamanho corporal e outros correlatos clínicos são motivo de debate, assim como a definição dos estados de anormalidade, tanto para hipertrofia ventricular esquerda, como para outras medidas da estrutura ventricular. Em uma amostra populacional de 1479 Afro- Americanos do Estudo ARIC, investigamos de forma estratificada e multivariada as associações independentes entre diabetes e as alterações estruturais do ventrículo esquerdo, definidas por hipertrofia ventricular, aumento da espessura relativa e padrões geométricos anormais. Encontramos prevalências elevadas dea alterações estruturais nos indivíduos com diabetes. Diabetes associou-se com hipertrofia ventricular em ambos os sexos e com espessura parietal aumentada e padrões geométricos anormais nas mulheres. Na maior parte dos modelos, as associações com diabetes foram minimizadas com os ajustes para obesidade, sugerindo que o impacto da obesidade sobre as alterações estruturais vistas em diabetes pode ser mediado por fatores outros do que a hiperglicemia. Essas novas evidências estão em sintonia com o conhecimento contemporâneo descrito.
Resumo:
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
Resumo:
Atualmente, quando falamos em Internet, não podemos somente pensar em serviços que utilizam correio eletrônico ou acessam informações de sites através de um navegador. Dentre alguns serviços utilizados na Internet, podemos destacar a videoconferência. Videoconferência contempla, além do intercâmbio de áudio e vídeo entre duas pessoas ou grupos, também o compartilhamento de dados. Os serviços e protocolos definidos nas recomendações H.323 (para videoconferência) e T.120 (para a colaboração de dados) do ITU são bastante complexos e ocorrem muitos problemas na sua utilização em redes de pacotes funcionando segundo o princípio de best effort da Internet. Nesta dissertação de mestrado são apresentados alguns resultados do estudo realizado sobre o contexto de videoconferência, suas soluções e protocolos, com ênfase nos protocolos padronizados para colaboração de dados dentro de uma videoconferência e a sua estrutura. Esta dissertação também apresenta uma proposta de solução para uma aplicação que utilize transferência de arquivos nos moldes do padrão ITU T.127, mas que atenda aos requisitos de menor complexidade (tráfego e processamento). A proposta utiliza as estratégias de simplificação dos protocolos usados no contexto de colaboração de dados em ambiente que ainda mantenha compatibilidade com o ambiente T.120 e, sobretudo utilizando a Internet.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Este trabalho teve como objetivos: determinar, para suínos, os valores de ED e EM de farinhas de sangue e farinhas de víceras, obtidas por diferentes processamentos, com base na EB e na digestibilidade da proteína e da gordura; estimar valores de ED e EM de farinhas de sangue e de víceras, pela soma das energias da proteína e da gordura digestíveis destas fontes; estudar influências da origem e do tipo de processamento sobre os valores energéticos das farinhas de origem animal; gerar dados para atualizar tabelas de composição química e valores energéticos de alimentos para suínos.
Resumo:
Este trabalho examina a lateralização cerebral de funções e sua implicação para a cognição humana ao nível da intersecção entre a neuropsicologia clinica e a psicologia cognitiva de base informacional. A primeira parte do trabalho e dedicada a descrição e análise critica da conformação contemporânea desta área de investigação neuropsicológica, com a ênfase posta na metateoria e teorias predominantes, a par do sistema conceitual utilizado nas atividades de pesquisa desenvolvidas na área. Inicialmente, a abordagem neuropsicológica do problema da lateralização cerebral examinada no que concerne às suas articulações com os métodos e técnicas que se mostraram mais importantes para a configuração atual desta área de investigação, sob um enfoque histórico. Em continuidade, a análise dirigida às questões mais fundamentais nas quais se tem desdobrado o problema da assimetria funcional inter-hemisférica, representadas pelas especializações funcionais dos hemisférios cerebrais, pela atividade conjunta dos hemisférios e pelas relações entre diferenças individuais na lateralização cerebral e desempenho cognitivo. Neste contexto são sublinhadas as dificuldades e inconsistências relacionadas à restritividade do enfoque prevalente, avaliado como expressão de uma concepção neuropsicológica excessivamente simplificadora do problema compreendido pelas relações entre o cérebro e a cognição humanos. O trabalho apresenta, em sua segunda parte, uma tentativa de desenvolvimento de um enfoque sistêmico, na direção da complexidade, para o problema da lateralização cerebral de funções. Trata-se de um desenvolvimento que parte de uma descentração da dimensão lateral do sistema nervoso e resulta em uma subsunção deste problema à uma perspectiva mais global concernente à organização cerebral de funções e aos fundamentos para a construção teórica na neuropsicologia. Segue-se um exame das implicações deste enfoque para a questão das relações entre variações inter-individuais na lateralização cerebral de funções e habilidades cognitivas que se direciona para uma minimização do significado que tem sido atribuído a lateralizarão para o funcionamento cerebral e a cognição humanos. O trabalho apresenta, finalmente, um estudo empírico referente às relações entre variações inter-individuais normais de lateralizarão cerebral ,preferência manipulatória e sua história familiar e desempenho cognitivo, onde são comparados os desempenhos de destros com história familiar de sinistralidade negativa e de canhotos com esta história positiva no Teste WAIS. Os resultados obtidos mostram uma inequívoca semelhança nos desempenhos dos dois grupos em todas as escalas do WAIS. Estes resultados são discutidos principalmente no que tange à existência ou não de correspondências diretas entre variações normais nas representações das funções ao longo da dimensão lateral do sistema nervoso, preferência manipulatória e habilidades cognitivas. A conclusão final conforma-se como um sumário integrativo dos principais aspectos das conclusões atingidas no curso do trabalho.
Resumo:
resumo não disponível.