201 resultados para Analógico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem por objectivo estudar a caracterização e modelação de arquitecturas de rádio frequência para aplicações em rádios definidos por software e rádios cognitivos. O constante aparecimento no mercado de novos padrões e tecnologias para comunicações sem fios têm levantado algumas limitações à implementação de transceptores rádio de banda larga. Para além disso, o uso de sistemas reconfiguráveis e adaptáveis baseados no conceito de rádio definido por software e rádio cognitivo assegurará a evolução para a próxima geração de comunicações sem fios. A ideia base desta tese passa por resolver alguns problemas em aberto e propor avanços relevantes, tirando para isso partido das capacidades providenciadas pelos processadores digitais de sinal de forma a melhorar o desempenho global dos sistemas propostos. Inicialmente, serão abordadas várias estratégias para a implementação e projecto de transceptores rádio, concentrando-se sempre na aplicabilidade específica a sistemas de rádio definido por software e rádio cognitivo. Serão também discutidas soluções actuais de instrumentação capaz de caracterizar um dispositivo que opere simultaneamente nos domínios analógico e digital, bem como, os próximos passos nesta área de caracterização e modelação. Além disso, iremos apresentar novos formatos de modelos comportamentais construídos especificamente para a descrição e caracterização não-linear de receptores de amostragem passa-banda, bem como, para sistemas nãolineares que utilizem sinais multi-portadora. Será apresentada uma nova arquitectura suportada na avaliação estatística dos sinais rádio que permite aumentar a gama dinâmica do receptor em situações de multi-portadora. Da mesma forma, será apresentada uma técnica de maximização da largura de banda de recepção baseada na utilização do receptor de amostragem passa-banda no formato complexo. Finalmente, importa referir que todas as arquitecturas propostas serão acompanhadas por uma introdução teórica e simulações, sempre que possível, sendo após isto validadas experimentalmente por protótipos laboratoriais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese investiga a caracterização (e modelação) de dispositivos que realizam o interface entre os domínios digital e analógico, tal como os buffers de saída dos circuitos integrados (CI). Os terminais sem fios da atualidade estão a ser desenvolvidos tendo em vista o conceito de rádio-definido-por-software introduzido por Mitola. Idealmente esta arquitetura tira partido de poderosos processadores e estende a operação dos blocos digitais o mais próximo possível da antena. Neste sentido, não é de estranhar que haja uma crescente preocupação, no seio da comunidade científica, relativamente à caracterização dos blocos que fazem o interface entre os domínios analógico e digital, sendo os conversores digital-analógico e analógico-digital dois bons exemplos destes circuitos. Dentro dos circuitos digitais de alta velocidade, tais como as memórias Flash, um papel semelhante é desempenhado pelos buffers de saída. Estes realizam o interface entre o domínio digital (núcleo lógico) e o domínio analógico (encapsulamento dos CI e parasitas associados às linhas de transmissão), determinando a integridade do sinal transmitido. Por forma a acelerar a análise de integridade do sinal, aquando do projeto de um CI, é fundamental ter modelos que são simultaneamente eficientes (em termos computacionais) e precisos. Tipicamente a extração/validação dos modelos para buffers de saída é feita usando dados obtidos da simulação de um modelo detalhado (ao nível do transístor) ou a partir de resultados experimentais. A última abordagem não envolve problemas de propriedade intelectual; contudo é raramente mencionada na literatura referente à caracterização de buffers de saída. Neste sentido, esta tese de Doutoramento foca-se no desenvolvimento de uma nova configuração de medição para a caracterização e modelação de buffers de saída de alta velocidade, com a natural extensão aos dispositivos amplificadores comutados RF-CMOS. Tendo por base um procedimento experimental bem definido, um modelo estado-da-arte é extraído e validado. A configuração de medição desenvolvida aborda não apenas a integridade dos sinais de saída mas também do barramento de alimentação. Por forma a determinar a sensibilidade das quantias estimadas (tensão e corrente) aos erros presentes nas diversas variáveis associadas ao procedimento experimental, uma análise de incerteza é também apresentada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A integridade do sinal em sistemas digitais interligados de alta velocidade, e avaliada através da simulação de modelos físicos (de nível de transístor) é custosa de ponto vista computacional (por exemplo, em tempo de execução de CPU e armazenamento de memória), e exige a disponibilização de detalhes físicos da estrutura interna do dispositivo. Esse cenário aumenta o interesse pela alternativa de modelação comportamental que descreve as características de operação do equipamento a partir da observação dos sinais eléctrico de entrada/saída (E/S). Os interfaces de E/S em chips de memória, que mais contribuem em carga computacional, desempenham funções complexas e incluem, por isso, um elevado número de pinos. Particularmente, os buffers de saída são obrigados a distorcer os sinais devido à sua dinâmica e não linearidade. Portanto, constituem o ponto crítico nos de circuitos integrados (CI) para a garantia da transmissão confiável em comunicações digitais de alta velocidade. Neste trabalho de doutoramento, os efeitos dinâmicos não-lineares anteriormente negligenciados do buffer de saída são estudados e modulados de forma eficiente para reduzir a complexidade da modelação do tipo caixa-negra paramétrica, melhorando assim o modelo standard IBIS. Isto é conseguido seguindo a abordagem semi-física que combina as características de formulação do modelo caixa-negra, a análise dos sinais eléctricos observados na E/S e propriedades na estrutura física do buffer em condições de operação práticas. Esta abordagem leva a um processo de construção do modelo comportamental fisicamente inspirado que supera os problemas das abordagens anteriores, optimizando os recursos utilizados em diferentes etapas de geração do modelo (ou seja, caracterização, formulação, extracção e implementação) para simular o comportamento dinâmico não-linear do buffer. Em consequência, contributo mais significativo desta tese é o desenvolvimento de um novo modelo comportamental analógico de duas portas adequado à simulação em overclocking que reveste de um particular interesse nas mais recentes usos de interfaces de E/S para memória de elevadas taxas de transmissão. A eficácia e a precisão dos modelos comportamentais desenvolvidos e implementados são qualitativa e quantitativamente avaliados comparando os resultados numéricos de extracção das suas funções e de simulação transitória com o correspondente modelo de referência do estado-da-arte, IBIS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde que surgiu há mais de 50 anos, a televisão sofreu muitas transformações, tanto ao nível tecnológico (por exemplo com a passagem da emissão a preto/branco para cor, o som analógico para digital, a difusão digital) como a nível da sua influência nas sociedades. Entre outros fatores de ordem tecnológica, a consolidação da Internet com o seu elevado nível de personalização, da experiência de utilização, e a sua enorme quantidade de conteúdos disponíveis, catapultou a televisão no sentido de esta se tornar mais interativa. Assim, o telespectador passou a poder usufruir de uma experiência televisiva que pode, por um lado, ser mais participativa, sendo-lhe possível, por exemplo, alvitrar sobre a qualidade de um programa enquanto assiste à sua exibição, e, por outro, ser mais personalizada, possibilitando-lhe, por exemplo, receber conteúdos automaticamente adequados ao seu perfil e contexto. No entanto, esta experiência mais participativa e personalizável carece de uma identificação, idealmente automática e não intrusiva, de quem pode beneficiar da mesma – o telespectador. Contudo, e apesar de significativos avanços na área da televisão interativa, tanto ao nível da infraestrutura de suporte como ao nível dos serviços disponibilizados, a identificação dos utilizadores é, ainda, uma área de estudo com muitos aspetos por compreender. Os seniores, em particular, são grandes consumidores de televisão e representam uma fatia muito considerável das pessoas que podem beneficiar das potencialidades disponibilizadas pela interatividade presente em muitos serviços atuais. Um número crescente destes serviços são desenhados com o objetivo de promoverem um envelhecimento ativo e um concreto apoio à vida, pelo que os seniores podem beneficiar, em vários aspetos do seu quotidiano, se os utilizarem. Nesta faixa etária, a identificação de utilizadores tem, como elemento potenciador da experiência de utilização, um papel especialmente importante ao nível de um aproveitamento personalizado e dirigido destes serviços. No entanto, atendendo às diferentes combinações de características físicas, sensoriais, cognitivas e, mesmo, de literacia digital que tipificam os seniores, perspetivou-se existir uma dependência do perfil do utilizador na seleção do método de identificação mais adequado, os quais podem ser baseados, por exemplo, num leitor de impressões digitais, instalado no telecomando; na leitura de uma wearable tag ou de um cartão RFiD; no reconhecimento da face e, eventualmente, na voz do utilizador. Assim, a inerente investigação desenrolou-se em várias fases, no sentido de permitir alicerçar a construção de uma matriz de decisão tecnológica que, em função do perfil de utilizador, selecione o sistema de identificação mais adequado. O procedimento metodológico inerente à construção desta matriz de decisão, passou por um longo processo envolvendo utilizadores reais, que se iniciou com a realização de entrevistas exploratórias com o objetivo de permitir conhecer melhor os seniores e a forma como estes encaram a tecnologia e, mais concretamente, a televisão interativa. Foi depois implementado um protótipo de alta-fidelidade, completamente funcional, para a realização de testes com o objetivo de perceber qual a preferência relativamente a um subconjunto de tecnologias de identificação. Estes testes, uma vez que não permitiram testar todas as tecnologias em estudo, revelaram-se inconclusivos, porém permitiram reforçar a necessidade de identificar e caracterizar os referidos aspetos do perfil do utilizador que podem interferir na sua preferência relativamente ao sistema de identificação. As características identificadas constituíram-se como os parâmetros de entrada da matriz, sendo que para preencher as respetivas células realizaramse testes de aceitação, com um conjunto de seniores, tendo por base um protótipo, wizard of oz, especificamente implementado para permitir experienciar todas as tecnologias em estudo. Estes testes foram precedidos pela avaliação das capacidades funcionais dos participantes, nos diversos parâmetros definidos. Este texto relata, assim, todo o processo de investigação que foi conduzido, terminando com uma descrição de exemplos de utilização da matriz de decisão implementada e com a identificação de potenciais caminhos de desenvolvimento deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optical networks are under constant evolution. The growing demand for dynamism require devices that can accommodate different types of traffic. Thus the study of transparent optical networks arises. This approach makes optical networks more "elegant" , due to a more efficient use of network resources. In this thesis, the author proposes devices that intend to form alternative approaches both in the state of art of these same technologies both in the fitting of this technologies in transparent optical networks. Given that full transparency is difficult to achieve with current technology (perhaps with more developed optical computing this is possible), the author proposes techniques with different levels of transparency. On the topic of performance of optical networks, the author proposes two techniques for monitoring chromatic dispersion with different levels of transparency. In Chapter 3 the proposed technique seems to make more sense for long-haul optical transmission links and high transmission rates, not only due to its moderate complexity but also to its potential moderate/high cost. However it is proposed to several modulation formats, particularly those that have a protruding clock component. In Chapter 4 the transparency level was not tested for various modulation formats, however some transparency is achieved by not adding any electrical device after the receiver (other than an analog-digital converter). This allows that this technique can operate at high transmission rates in excess of 100 Gbit / s, if electro-optical asynchronous sampling is used before the optical receiver. Thus a low cost and low bandwidth photo-detector can be used. In chapter 5 is demonstrated a technique for simultaneously monitoring multiple impairments of the optical network by generating novel performance analysis diagrams and by use of artificial neural networks. In chapter 6 the author demonstrates an all-optical technique for controlling the optical state of polarization and an example of how all-optical signal processing can fully cooperate with optical performance monitoring.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Automação e Electrónica Industrial

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório de estágio apresentado à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Jornalismo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os equipamentos de medição utilizados nos hospitais têm uma função muito importante na deteção e diagnóstico de doenças como é o caso da pressão arterial. Entre esses equipamentos encontram-se os esfigmomanómetros digitais portáteis que são em muitos casos os primeiros a serem utilizados e a fornecerem um primeiro diagnóstico da pressão arterial do doente como é no caso das urgências hospitalares. Para que os diagnósticos prescritos pelos profissionais de saúde - médicos e enfermeiros seja o mais correto é necessário conhecer as condições de trabalho em que se encontram os esfigmomanómetros digitais existentes nas unidades de saúde. Sendo os esfigmomanómetros digitais equipamentos com uma importância relevante na vida do ser humano, estes deveriam fazer parte da lista de equipamentos que estão englobados na metrologia legal, situação que neste momento ainda não foi concretizada e cada hospital toma a decisão espontânea se efetua a calibração ou verificação internamente dos seus esfigmomanómetros digitais. Pretende-se com este trabalho dar a conhecer o estado ao nível dos erros de alguns esfigmomanómetros digitais existentes nos hospitais envolvidos no trabalho e desenvolver um procedimento de verificação interna dos mesmos com auxílio de um manómetro analógico calibrado e um estetoscópio duplo – método de medição auscultatório - e comparar esses resultados com a utilização de um simulador – método de medição oscilométrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação em apreço resultou da necessidade em otimizar os recursos técnicos, mas sobretudo humanos, afetos às verificações de instrumentos de medição, no âmbito do Controlo Metrológico Legal. Estas verificações, realizadas nos termos do cumprimento das competências outrora atribuídas à Direção de Serviços da Qualidade da então Direção Regional da Economia do Norte, eram operacionalizadas pela Divisão da Qualidade e Licenciamento, na altura dirigida pelo subscritor da presente tese, nomeadamente no que respeita aos ensaios efetuados, em laboratório, a manómetros analógicos. O objetivo principal do trabalho foi alcançado mediante o desenvolvimento de um automatismo, materializado pela construção de um protótipo, cuja aplicação ao comparador de pressão múltiplo, dantes em utilização, permitiria realizar a leitura da indicação de cada manómetro analógico através de técnicas de processamento de imagem, função esta tradicionalmente efetuada manualmente por um operador especializado. As metodologias de comando, controlo e medição desse automatismo foram realizadas através de um algoritmo implementado no software LabVIEW® da National Intruments, particularmente no que respeita ao referido processamento das imagens adquiridas por uma câmara de vídeo USB. A interface com o hardware foi concretizada recorrendo a um módulo de Aquisição de Dados Multifuncional (DAQ) USB-6212, do mesmo fabricante. Para o posicionamento horizontal e vertical da câmara de vídeo USB, recorreu-se a guias lineares acionadas por motores de passo, sendo que estes dispositivos foram igualmente empregues no acionamento do comparador de pressão. Por último, procedeu-se à aquisição digital da leitura do padrão, recorrendo à respetiva virtualização, bem como a uma aplicação desenvolvida neste projeto, designada appMAN, destinada à gestão global do referido automatismo, nomeadamente no que se refere ao cálculo do resultado da medição, erro e incerteza associada, e emissão dos respetivos documentos comprovativos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desarrollar procedimientos y técnicas integrados en los sistemas de instrucción, para ayudar a modificar y prevenir los problemas de aprendizaje asociados con la impulsividad cognitiva. Comparar la eficacia de los entrenamientos en autoinstrucciones y en solución de problemas a la hora de modificar la impulsividad y mejorar el rendimiento académico del niño. Evaluar los efectos de algunas aportaciones de los sistemas de instrucción en estrategias cognitivas o CSI, respecto a la generalización y mantenimiento de resultadoss programas de intervención no producirán cambios en el comportamiento social del niño. Dos aulas de quinto y dos de sexto de EGB del C. P. Miquel Porcel de Palma, durante el curso académico 90-91. Muestra inicial de 81 alumnos de los cuales se seleccionan 21, 10 de quinto y 11 de sexto, por ser clasificados como impulsivos, con un rendimiento académico moderado-bajo, acompañado de dificultades de aprendizaje no atribuibles directamente a factores neuropsicológicos o socio-familiares. Distribución aleatoria de los sujetos en tres grupos, controlando las variables curso y sexo: 7 para el programa de autoinstrucciones, AI, 7 para el de solución de problemas, SP, y 7 para el grupo control, sin tratamiento. El trabajo se estructura en tres grandes partes. La primera trata aspectos teóricos de la reflexibidad-impulsividad, R-I, desde el ámbito de los estilos cognitivos. La segunda parte establece las relaciones de la R-I con la educación viendo las nuevas posibilidades de conceptualización y modificación dentro de los modelos de instrucción en estrategias o CSI. La tercera parte aplica un diseño experimental para comprobar la efectividad de esta relación entre la perspectiva cognitivo-conductual y la CSI. 1. Test de emparejamiento de figuras familiares de Cairns y Cammock o MFF-20, 1978, para medir la reflexividad-impulsividad. 2. Test de matrices progresivas de Raven -serie especial-, para medir la inteligencia entendida como razonamiento analógico. 3. Prueba objetiva de rendimiento académico o POR, basada en el currículum del centro, para medir la comprensión lectora, la expresión escrita, la resolución de problemas elementales, el cálculo, etc. 4. Cuestionario de evaluación de conductas en el aula o CECA, para medir el comportamiento, las habilidades básicas y el rendimiento académico. Destinado a los profesores. 5. Prueba inicial del rendimiento académico o PIN, destinada únicamente a los grupos experimentales. Para seleccionar la muestra experimental se utilizan las puntuaciones globales de los cuatro primeros instrumentos; para la evaluación pre y post tratamiento se utiliza el primero y los tres últimos; y para la evaluación del seguimiento se utiliza el primero y una versión reducida del tercero y del quinto. Los tres últimos instrumentos son de elaboración propia. Se utiliza el sistema de economía de fichas para la atención y el buen comportamiento durante la aplicación de los tratamientos. La muestra inicial se analiza con los siguientes procedimientos. Diseño factorial AxB con dos niveles en cada factor al que se le aplica el análisis de varianza Two Ways. Análisis de varianza One Way para los cuatro grupos del sistema tradicional, los contrastes posteriores se realizan con la prueba de Student-Newman-Keuls. Comparación de medias con T-Test para la PI. El diseño correlacional analiza las relaciones entre las medidas del MFF-20 y del Ravesn sobre las medidas del POR y CECA; y la fiabilidad del CECA mediante el método test-retest. 2. La muestra experimental se analiza con los siguientes procedimientos: diseño factorial AxB intra-sujetos con medidas repetidas en el factor B. El factor A o Factor grupo está compuesto por tres niveles: AI, SP y CN. El factor B o factor test está compuesto por dos o tres niveles: evaluación pre-tratamiento, evaluación post-tratamiento y, para alguna medida, evaluación de seguimiento. Se ha efectuado el análisis multivariante de la varianza, MANOVA, sobre las distintas medidas; cuando las interacciones grupo X test han sido significativas se ha procedido al análisis de los contrastes, tipo simple. En las medidas donde las interacciones no han sido significativas pero sí lo han sido las variables entre-sujetos, factor grupo, y/o la variabilidad intrasujetos, factor test, se ha procedido a la aplicación de los ANOVA para cada factor y al análisis de los contrastes con la prueba Student-Neyman-Keuls. Se confirman las tres hipótesis de la muestra inicial. Por lo que respecta al diseño experiemental, si bien las H4 y H5 se han cumplido hasta cierto punto, las tres hipótesis exploratorias consideradas de mayor interés sólo se han cumplido parcialmente. Los programas han sido efectivos en la modificación de la R-I y en el mantenimiento de resultados. Sin embargo, los resultados sobre la mejora del rendimiento académico han sido aceptables únicamente sobre las medidas globales de la POR y la PIN pero no se han mantenido tras el seguimiento. Por otra parte, H2 y H3 sólo se han cumplido estadísticamente sobre los errores aunque la tendencia sobre la PI es la misma. De todos modos, en el caso de las latencias el programa de solución de problemas se muestra ligeramente superior al de autoinstrucciones tanto en el postratamiento como en el seguimiento. Si bien todavía quedan bastantes puntos oscuros en la concepción de la R-I, los esfuerzos realizados tanto en los aspectos conceptuales como en los metodológicos han servido para confirmar las repercusiones de ésta dentro del ámbito educativo. La preocupación por incorporar los avances realizados dentro de la orientación del enseñar a pensar es palpable. El problema radica en plantearse no sólo las reformas de los contenidos curriculares, necesarias e importantes, sino también en plantearse las posibilidades de modificar los sistemas de instrucción para que se haga un mayor énfasis en el fomento de los procesos cognitivos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this study is to establish the time and period of development of Analogical Reasoning (AR) and evaluate its independence and performance with respect to the age. We performed a longitudinal cohort study of two age groups and six annual follow-up phases from each one (2000-2005, 2001-2006) in six to eleven years-old children in the city of Huanuco (Peru) with a sample of 167 children (first stage), and N=121 (sixth stage). The Raven’s progressive matrices test, coloured version, was applied individually without time limits. Results indicate that AR development occurs in a constant and late way from seven to eleven years-old children, and also that there is independence between the ability of AR and the children age. We discuss the importance of knowledge in the relationships between analogies topics, adjusted to the age, as a mediating factor in the development of AR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudiar las teorías procesuales o de los niveles de procesamiento. El tiempo de reacción como medida independiente de la profundidad. Estudiar las variables de elaboración y congruencia. 30 estudiantes de primero y segundo de Psicología, 16 varones y 14 mujeres, entre 18 y 20 años. Diseño factorial 4x2x2 de medidas repetidas en los tres factores. Constaba de tres variables independientes: 1) Profundidad: con cuatro niveles, dos sensoriales (color y textura) y dos semánticos (basal y supraordinada) 2) Elaboración con dos niveles: una propiedad y dos propiedades. 3) Congruencia, con dos niveles: cuestiones con respuesta positiva y cuestiones con respuesta negativa. Variables dependientes: tiempo de reacción y recuerdo en una prueba de memoria incidental. Se controlaron una serie de variables intevinientes, tanto del ambiente de los sujetos, como de la tarea. Un taquitoscopio, dos timers, 105 tarjetas estímulos (cuadros) tomadas de las categorías basales usadas por Rodríguez, 1981. Una tarjeta estímulo (con un punto central), hoja con instrucciones, hojas de respuestas para el tiempo de reacción y la prueba de recuerdo. Obtención de medias para el tiempo de reacción y ejecución de recuerdo. Medias y desviaciones típicas para los distintos niveles de profundidad, elaboración y tipo de respuesta si-no, congruencia. Extracción de proporciones para la ejecución de recuerdo. Análisis de varianza para una y dos variables independientes. Prueba de 'W' para hallar la proporción de la variable dependiente que era explicada por la variable independiente. 1) Las preguntas más elaboradas producían un rendimiento mnésico mayor que las menos elaboradas. 2) Las decisiones positivas en la fase inicial, se asociaban con una ejecución mejor en las pruebas de recuerdo, que las decisiones negativas. 3) Se demuestra que la naturaleza cualitativa y cuantitativa de la tarea, determina el nivel de recuerdo, aunque la cualitativa es más crucial. 4) Se comprobó que el sistema analógico procesa en paralelo y el sistema verbal, procesa en forma serial o secuencial. 5) El tiempo de reacción es una buena medida de la profundidad, elaboración o congruencia, pero dentro de cada dominio. 6) Los análisis deben hacerse en este orden: profundidad, congruencia y elaboración. El proceso de descripción de estímulos nominales se sirve de la memoria semántica para transformarlos en estímulos proximales. Este es el proceso de codificación que, dependiendo de las estrategias utilizadas, crea un trazo más o menos fuerte en la memoria episódica. La conclusión general es la siguiente: para memorizar una imagen es bueno hacerlo analizándolo lo más semánticamente, congruente y elaborado posible. Esto es, lo más abstracto, haciendo juicios positivos y el mayor número de propiedades que podamos. Los niveles de procesamiento estan en 1981, en su máximo apogeo, debido sobre todo a que se vuelven a estudiar los fenómenos de memoria y aprendizaje interrelacionados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen basado en del autor en catalán

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen basado en el del autor