954 resultados para estado da arte
Resumo:
Os recursos energéticos naturais não estão distribuídos uniformemente pelo globo terrestre, e são raros os países que os têm na quantidade e na qualidade que necessitam para atender as suas necessidades. Ante a essa realidade, o comércio de energéticos tem sido a forma principal de acesso dos países que não os dispõem em relação as suas necessidades. Esse comércio, que muitas vezes é regido por tratados ou acordos firmados entre países ou blocos econômicos regionais, diversificou-se, traspassou fronteiras e, atualmente, tornou-se um item significativo nas pautas de exportações de vários países. A evolução desse comércio tem a favor a alternativa de integração por meio de interconexões estratégicas de redes e da constituição de mercados comuns, que viabilizam a exploração do potencial de complementariedade energética de forma mais racional. Diante desse contexto, esta dissertação apresenta um estudo exploratório que avalia o estado da arte da integração energética sul-americana e faz análises dos modelos técnicos, das regulamentações, das regulações regionais e multilaterais estabelecidas pelos blocos econômicos sul-americanos e pela Organização Mundial do Comércio. De forma complementar, o estudo verifica e apresenta os fatores que podem comprometer o avanço e a instituição de um futuro mercado comum de energia no continente, conclui pela viabilidade do prosseguimento de ações em prol da ampliação da integração da indústria de energia elétrica na América do Sul e tece recomendações. Os resultados e as recomendações deste trabalho oferecem um embasamento procedimental para a gestão e a atuação institucional dos envolvidos no processo de integração energética da indústria de energia elétrica da região sul americana.
Resumo:
O crescimento industrial, comercial e de serviços traz para as sociedades mais evoluídas uma série de benefícios, como o desenvolvimento econômico e o crescimento populacional, aliados a maiores oportunidades de emprego e renda. Entretanto, pela falta de uma consciência mais apurada sobre os possíveis impactos negativos de ritmo acelerado de crescimento, acaba-se verificando uma série de problemas sociais e, sobretudo, ambientais. Em razão disso, nos últimos anos, constata-se a preocupação de alguns setores da sociedade na busca do desenvolvimento fundamentado em práticas mais sustentáveis. Isso não tem sido diferente no setor da construção civil. A preocupação com a sustentabilidade nos empreendimentos é tema e foco de diversos eventos, tanto no meio acadêmico, como no profissional e governamental. Particularmente, o segmento de mercado de EDIFÍCIOS DE ESCRITÓRIOS CORPORATIVOS tem sido alvo de pressão para o uso de práticas mais sustentáveis em todo o seu ciclo de vida, desde sua concepção, projeto, implantação e operação até a sua revitalização. Para aferir a sustentabilidade dos EDIFÍCIOS DE ESCRITÓRIOS CORPORATIVOS, muitas empresas do setor buscam certificações de origem estrangeira, que possuem certas limitações em sua aplicabilidade no Brasil, as quais são discutidas neste trabalho. Neste contexto, esta tese visa à construção da CERTIFICAÇÃO DA SUSTENTABILIDADE DE EDIFÍCIOS DE ESCRITÓRIOS CORPORATIVOS no Brasil, que é oportuna e necessária para tratar das condições de contorno e de realidade nacional. Para isso, foram realizados: [i] levantamento do estado da arte deste tema; [ii] construção da MATRIZ DE ATRIBUTOS para a avaliação da sustentabilidade dos EDIFÍCIOS DE ESCRITÓRIOS CORPORATIVOS; [iii] entrevistas com formadores de opinião deste segmento do mercado imobiliário; [iv] visitas em EDIFÍCIOS DE ESCRITÓRIOS CORPORATIVOS relevantes para as arbitragens iniciais; [v] a construção dos procedimentos, regras e rotina, com testes de validação e calibragem do SISTEMA PARA CLASSIFICAÇÃO.
Resumo:
A gaseificação utiliza o conteúdo intrínseco de carbonos e hidrogênios das matérias primas sólidas ou líquidas na geração de uma mistura de hidrogênio (H2), monóxido de carbono (CO), dióxido de carbono (CO2) e metano (CH4). Tal mistura pode ser utilizada como matéria prima na síntese de novos produtos ou como combustível. A gaseificação pode ser utilizada no processamento de uma gama variada de produtos, independentemente de suas características ou estado físico. A utilização de biomassa como insumo da gaseificação vem sendo cada vez mais explorada e estudada, já que apresenta benefícios não somente na esfera ambiental, mas também em âmbitos econômicos e sociais. A vinhaça é um subproduto do processo de produção de álcool, que contém grandes concentrações de nutrientes e matéria orgânica em sua composição. A sua utilização hoje está limitada a fertirrigação e a aplicações isoladas em biodigestão e outros, que não são suficientes para o consumo da produção anual crescente do resíduo. Seu uso na gaseificação permitiria o aproveitamento do conteúdo orgânico da mesma e a produção de gases de alto valor agregado. Como a umidade do insumo interfere negativamente na eficiência da gaseificação clássica, a aplicação da mesma para matérias primas com alto teor de líquidos não é recomendada. Uma alternativa viável seria a utilização do meio gaseificante supercrítico, que resulta em rendimentos constantes, independentemente da umidade da corrente de entrada do reator. O presente trabalho consiste no projeto de um módulo de gaseificação de vinhaça em água supercrítica, a ser instalado como uma unidade anexa a usinas de açúcar e álcool. Ele compreende o projeto conceitual e análise de viabilidade deste módulo, incluindo estimativas de CAPEX (Capital Expenditure) e OPEX (Operation Expenditure) e uma análise de sensibilidade dos mesmos. O estudo apresenta ainda o estado da arte do conhecimento e da tecnologia de gaseificação com água supercrítica (SCWG), relacionando os gargalos a serem resolvidos, assim como os ganhos intrínsecos da definição conceitual do projeto.
Resumo:
Desde o final do Século XX e início do Século XXI, estudos analisam a elevada taxa de insucesso ou insatisfação com os Programas de Lean. Esta taxa tem se demonstrado demasiadamente elevada, variando entre 66% e 90%. Como efeito deste insucesso, tem-se o desperdício de tempo, dinheiro, recursos e, talvez o pior, tem-se a propagação do medo nos agentes de mudança em empreitar novas iniciativas de mudança. Estudos apontam a falta de alinhamento de tais projetos com a Cultura Organizacional como uma das questões fundamentais deste insucesso. Partindo desta temática de pesquisa, este ensaio teórico pode ser caracterizado como uma abordagem qualitativa de análise do problema, de natureza básica de pesquisa buscando gerar conhecimentos novos e úteis às organizações, sem aplicação prática prevista neste primeiro estágio de pesquisa. A fonte de evidências para sustentar o modelo proposto foi revisão dos estudos de caso encontrados na literatura, sendo utilizadas tanto uma Revisão Bibliográfica Sistemática (RBS) quanto Exploratória, de tal maneira a buscar o \"estado da arte\" no campo de estudo. A Fundamentação Teórica do trabalho é baseada na literatura de quatro grandes campos de estudo: (i) Estratégia, (ii) Lean, (iii) Cultura Organizacional e (iv) Gestão de Mudanças. A RBS tem foco nas interseções destes grandes campos, agregando 190 trabalhos internacionais. Por sua vez, a Revisão Exploratória traz algumas das principais referências dos três campos de estudo, como: Edgar Schein, John Kotter, Kim Cameron, Robert Quinn, David Mann, dentre outros. Desta maneira, este trabalho estudou a influência da cultura organizacional nos projetos de transformação e, a partir da ruptura com a teoria atual, construiu e propôs uma sistemática teórica, intitulada de \"Sistemática de Transformação\" (ou simplesmente \"Sistemática T\"), a qual propõe o alinhamento entre três dimensões: Estratégia, Projeto de Transformação e Cultura Organizacional. Fazendo uso desta sistemática, é esperado que os agentes de mudança consigam ter um planejamento mais eficaz do processo de diagnóstico, avaliação e gestão da cultura organizacional alinhado à Estratégia e também ao Projeto de Transformação da organização, com ênfase nos Programas de Lean. A proposição e uso desta sistemática pode favorecer tanto a discussão acadêmica na área de Gestão de Operações sobre o tema, quanto fornecer subsídios para aplicações práticas mais eficazes.
Resumo:
Los dispositivos opto-electrónicos, tales como las células solares, las pantallas planas y los diodos LED (del inglés light emitting diodes), necesitan contactos eléctricos en la cara frontal por la que entra o sale la luz del dispositivo. Estos contactos causan pérdidas por reflexión y absorción de luz (sombra) y por resistencia eléctrica. En una primera aproximación estas pérdidas son contrapuestas, lo que mejora la sombra empeora la resistencia y viceversa. Hasta ahora esto se ha entendido como un compromiso inevitable que limita la eficiencia de conversión energética de los dispositivos opto-electrónicos: disminuir las pérdidas por resistencia eléctrica implica necesariamente aumentar las pérdidas ópticas por sombra. Esta tesis se ha encaminado a tratar de superar esta dificultad a través de la nanoestructuración de la malla de contacto frontal, con especial énfasis en el caso de las células solares de concentración. El objetivo es poder reducir simultáneamente las pérdidas por sombreado y resistencia en serie de la malla. Hemos encontrado, en base a experimentos, teoría y simulaciones, que para tamaños de linea pequeños, en el umbral del régimen de Rayleigh, pero no lo suficientemente pequeños como para que se den las resonancias plasmónicas más intensas (de tipo dipolar), los contactos hacen menos sombra de la que corresponde a su área geométrica. Se puede decir que los contactos se vuelven parcialmente invisibles. En una primera parte de introducción se ha presentado la influencia de la malla en las pérdidas por resistencia en serie producidas en la célula. Se ha analizado el peso de las distintas variables y se ha escogido la reducción del espaciado entre líneas como alternativa a desarrollar. Para no afectar a otras variables, se ha reducido acordemente la anchura de línea manteniendo el factor de sombra geométrico de las células estado del arte. Se ha calculado que para un caso ideal la ganancia puede ser de un 4% absoluto para mallas con líneas de anchura 400-600 nm distribuidas en periodos de 10-20 μm. Se ha visto como otros efectos eléctricos apuntan también a ese rango como óptimo...
Resumo:
Um dos grandes desafios enfrentados pelos fabricantes de turbinas hidráulicas é prevenir o aparecimento de vibrações induzidas pelo escoamento nas travessas do pré-distribuidor e pás do rotor. Considerando apenas as travessas, e atribuídos a tais vibrações, foram relatados 28 casos de trincas ou ruídos anormais nas últimas décadas, que acarretaram enormes prejuízos associados a reparos, atrasos e perda de geração. O estado da arte na prevenção destes problemas baseia-se na utilização de sofisticados, e caros, programas comerciais de dinâmica dos fluidos computacional para o cálculo transiente do fenômeno. Este trabalho faz uma ampla revisão bibliográfica e levantamento de eventos de trincas ou ruídos ocorridos em travessas nos últimos 50 anos. Propõe, então, um enfoque alternativo, baseado exclusivamente em ferramentas de código aberto. A partir de hipóteses simplificadoras devidamente justificadas, o problema é formulado matematicamente de forma bidimensional, no plano da seção transversal da travessa, levando em conta a interação fluido-estrutura. Nesta estratégia, as equações de Navier-Stokes são resolvidas pelo método dos elementos finitos por meio da biblioteca gratuita oomph-lib. Um código especial em C++ é desenvolvido para o problema de interação fluido-estrutura, no qual o fenômeno de turbulência é levado em consideração por meio de um algoritmo baseado no modelo de Baldwin-Lomax. O método proposto é validado por meio da comparação dos resultados obtidos com referências e medições disponíveis na literatura, que tratam de problemas de barras retangulares suportadas elasticamente. O trabalho finaliza com a aplicação do método a um estudo de caso envolvendo uma travessa particular.
Resumo:
O paradigma das redes em chip (NoCs) surgiu a fim de permitir alto grau de integração entre vários núcleos de sistemas em chip (SoCs), cuja comunicação é tradicionalmente baseada em barramentos. As NoCs são definidas como uma estrutura de switches e canais ponto a ponto que interconectam núcleos de propriedades intelectuais (IPs) de um SoC, provendo uma plataforma de comunicação entre os mesmos. As redes em chip sem fio (WiNoCs) são uma abordagem evolucionária do conceito de rede em chip (NoC), a qual possibilita a adoção dos mecanismos de roteamento das NoCs com o uso de tecnologias sem fio, propondo a otimização dos fluxos de tráfego, a redução de conectores e a atuação em conjunto com as NoCs tradicionais, reduzindo a carga nos barramentos. O uso do roteamento dinâmico dentro das redes em chip sem fio permite o desligamento seletivo de partes do hardware, o que reduz a energia consumida. Contudo, a escolha de onde empregar um link sem fio em uma NoC é uma tarefa complexa, dado que os nós são pontes de tráfego os quais não podem ser desligados sem potencialmente quebrar uma rota preestabelecida. Além de fornecer uma visão sobre as arquiteturas de NoCs e do estado da arte do paradigma emergente de WiNoC, este trabalho também propõe um método de avaliação baseado no já consolidado simulador ns-2, cujo objetivo é testar cenários híbridos de NoC e WiNoC. A partir desta abordagem é possível avaliar diferentes parâmetros das WiNoCs associados a aspectos de roteamento, aplicação e número de nós envolvidos em redes hierárquicas. Por meio da análise de tais simulações também é possível investigar qual estratégia de roteamento é mais recomendada para um determinado cenário de utilização, o que é relevante ao se escolher a disposição espacial dos nós em uma NoC. Os experimentos realizados são o estudo da dinâmica de funcionamento dos protocolos ad hoc de roteamento sem fio em uma topologia hierárquica de WiNoC, seguido da análise de tamanho da rede e dos padrões de tráfego na WiNoC.
Resumo:
Computational Swarms (enxames computacionais), consistindo da integração de sensores e atuadores inteligentes no nosso mundo conectado, possibilitam uma extensão da info-esfera no mundo físico. Nós chamamos esta info-esfera extendida, cíber-física, de Swarm. Este trabalho propõe uma visão de Swarm onde dispositivos computacionais cooperam dinâmica e oportunisticamente, gerando redes orgânicas e heterogêneas. A tese apresenta uma arquitetura computacional do Plano de Controle do Sistema Operacional do Swarm, que é uma camada de software distribuída embarcada em todos os dispositivos que fazem parte do Swarm, responsável por gerenciar recursos, definindo atores, como descrever e utilizar serviços e recursos (como divulgá-los e descobrí-los, como realizar transações, adaptações de conteúdos e cooperação multiagentes). O projeto da arquitetura foi iniciado com uma revisão da caracterização do conceito de Swarm, revisitando a definição de termos e estabelecendo uma terminologia para ser utilizada. Requisitos e desafios foram identificados e uma visão operacional foi proposta. Esta visão operacional foi exercitada com casos de uso e os elementos arquiteturais foram extraídos dela e organizados em uma arquitetura. A arquitetura foi testada com os casos de uso, gerando revisões do sistema. Cada um dos elementos arquiteturais requereram revisões do estado da arte. Uma prova de conceito do Plano de Controle foi implementada e uma demonstração foi proposta e implementada. A demonstração selecionada foi o Smart Jukebox, que exercita os aspectos distribuídos e a dinamicidade do sistema proposto. Este trabalho apresenta a visão do Swarm computacional e apresenta uma plataforma aplicável na prática. A evolução desta arquitetura pode ser a base de uma rede global, heterogênea e orgânica de redes de dispositivos computacionais alavancando a integração de sistemas cíber-físicos na núvem permitindo a cooperação de sistemas escaláveis e flexíveis, interoperando para alcançar objetivos comuns.
Resumo:
Este proyecto pretende avanzar en el estado del arte de la investigación acerca de los Social Media en las áreas involucradas en aspectos como la detección de regularidades en entornos de los Social Media, la creación de modelos de crecimiento, evolución y propagación o, más en general, el descubrimiento de fenómenos interesantes en torno a la dinámica de los Social Media. Estas áreas abarcarán: La obtención de información mediante la minería del conjunto de datos procedentes de los Social Media, compuestos por contenidos, gente [datos de uso] e interacciones entre los mismos [redes sociales]. La construcción de conocimiento (modelos, métricas, etc.) a partir de la información obtenida mediante minería. El avance en la capacidad de acción en los Social Media mediante la simulación y experimentación con el conocimiento obtenido.
Resumo:
Analizamos el estado del arte de los estudios de recepción, audiencias y consumo cultural en Venezuela durante el período 2000-2011. Examinamos enfoques teóricos sobre el campo de la recepción mediática y cultural, desde las propuestas conceptuales de Aguirre, Barrios y Hernández Díaz. Se pudo constatar, en esta revisión documental, que los estudios de recepción en Venezuela abordan cuatro campos de estudio: 1) Educación para la recepción. 2) Influencia de la televisión. 3) Ciber-recepción. 4) Consumo cultural.
Resumo:
This paper describes a module for the prediction of emotions in text chats in Spanish, oriented to its use in specific-domain text-to-speech systems. A general overview of the system is given, and the results of some evaluations carried out with two corpora of real chat messages are described. These results seem to indicate that this system offers a performance similar to other systems described in the literature, for a more complex task than other systems (identification of emotions and emotional intensity in the chat domain).
Resumo:
En este proyecto se pretende diseñar un sistema embebido capaz de realizar procesamiento de imágenes y guiado de un hexacóptero. El hexacóptero dispondrá a bordo de una cámara así como las baterías y todo el hardware necesario para realizar el procesamiento de la información visual obtenida e implementar el controlador necesario para permitir su guiado. OpenCV es una biblioteca de primitivas de procesado de imagen que permite crear algoritmos de Visión por Computador de última generación. OpenCV fue desarrollado originalmente por Intel en 1999 para mostrar la capacidad de procesamiento de los micros de Intel, por lo que la mayoría de la biblioteca está optimizada para correr en estos micros, incluyendo las extensiones MMX y SSE. http://en.wikipedia.org/wiki/OpenCV Actualmente es ampliamente utilizada tanto por la comunidad científica como por la industria, para desarrollar nuevos algoritmos para equipos de sobremesa y sobre todo para sistemas empotrados (robots móviles, cámaras inteligentes, sistemas de inspección, sistemas de vigilancia, etc..). Debido a su gran popularidad se han realizado compilaciones de la biblioteca para distintos sistemas operativos tradicionales (Windows, Linux, Mac), para dispositivos móviles (Android, iOS) y para sistemas embebidos basados en distintos tipos de procesadores (ARM principalmente). - iPhone port: http://www.eosgarden.com/en/opensource/opencv-ios/overview/ - Android port: http://opencv.willowgarage.com/wiki/AndroidExperimental Un ejemplo de plataforma embebida es la tarjeta Zedboard (http://www.zedboard.org/), que representa el estado del arte en dispositivos embebidos basados en la arquitectura Cortex de ARM. La tarjeta incluye un procesador Cortex-A9 dual core junto con una gran cantidad de periféricos y posibilidades de conexión a tarjetas de expansión de terceras partes, lo que permite desarrollar aplicaciones en muy distintos campos de la Visión por Computador.
Resumo:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
Resumo:
Las inundaciones son los desastres causados por fenómenos naturales que más daños provocan a diferentes sectores, como son los de la vivienda, comercial, agrícola, turístico e industrial. Este último es un sector que sufre importantes daños, pero que no ha sido estudiado ya que se le consideraba como poco vulnerable y con capacidad de adaptación ante desastres naturales. La implementación de una metodología para calcular los daños directos tangibles en función de la altura de lámina de agua alcanzada vs daños económicos, permite tener estimaciones de las pérdidas económicas causadas por inundaciones. Este trabajo muestra el estado del arte e identifica las investigaciones referentes al cálculo de daños provocados por inundación y su aplicación en países en desarrollo como lo es México.
Resumo:
Relatório de estágio apresentado à Escola Superior de Artes Aplicadas do Instituto Politécnico de Castelo Branco para obtenção do Grau de Mestre em Ensino de Música - Instrumento e Música de Conjunto.