744 resultados para Implementa


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo realiza un análisis del discurso del alcalde de Otavalo, las percepciones ciudadanas de los otavaleños sobre la interculturalidad y las prácticas cotidianas relacionadas con el Municipio de Otavalo. Para el alcalde, la interculturalidad es concebida como un proceso en construcción que forma parte de un proyecto de democratización de la sociedad local; en sus distintos discursos implementa estrategias discursivas que postergan los conflictos y contradicciones para un segundo momento, para él la construcción de la interculturalidad demanda impulsar un proceso de unidad. En las percepciones de los ciudadanos otavaleños entrevistados, la identidad se presenta como una construcción social que no establece una relación antagónica o de enfrentamiento con miembros de culturas diferentes. A pesar de que a nivel discursivo se mantienen diferentes proyectos de construcción identitaria especialmente el de la "otavaleñidad" y de la sociedad intercultural-, en las relaciones cotidianas entre blancomestizos e indígenas se promueve la negociación y el diálogo con el Otro. Los ciudadanos otavaleños pragmatizan la interculturalidad en la vida cotidiana al concebirla como útil para hacer negocios. Esta visión instrumental no tiene en cuenta las relaciones de poder y la necesidad de una voluntad colectiva de los diferentes actores para la democratización de las relaciones culturales. En cambio, en el espacio público municipal, a través de diferentes prácticas y estrategias de poder, los blanco-mestizos discriminan -de manera abierta o encubierta- a los indígenas. En estas interacciones se presentan también prácticas de respeto a la diferencia cultural. Estas prácticas cotidianas no estructuran por si mismas una propuesta, pero a su vez son importantes por cuanto pueden aportar a la construcción de un nuevo sentido de sociedad posible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Insistir en la idea de la centralidad de los seres humanos y de la naturaleza en la definición de las políticas públicas como un logro conseguido por la Constitución de 2008, supone el reto de monitorear las acciones u omisiones del Estado para determinar si han cumplido con el mandato normativo que está próximo a cumplir cinco años de vigencia. Ya en 2009, se explicitó el contenido constitucional del derecho a la seguridad integral expresado en la Constitución, y desde entonces se ha monitoreado el avance de las acciones que el Estado implementa; sin embargo hasta la actualidad se observa un predominio de la seguridad entendida desde la lógica del Estado, sin que se evidencie un verdadero enfoque de derechos humanos que sea transversal en su diseño, ejecución y evaluación. A continuación se registran los cambios que en 2012, se dieron en relación al desarrollo de políticas sectoriales, producción normativa y acciones específicas que tienen relación directa con la seguridad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta investigación se ocupa del deporte moderno en el marco de la política identitaria, la identidad nacional y la subalternidad. Se examina al deporte como espacio de inclusión del actor subalterno y la lucha del mismo por su identidad. El caso de estudio se refiere a la segunda vuelta de las elecciones presidenciales en Colombia frente a dos hechos deportivos históricos: la coronación de Nairo Quintana en el Giro de Italia 2014 y el debut de la selección nacional de fútbol en la Copa Mundial de Brasil 2014. Se implementa como metodología un modelo experimental de etnografía virtual tomando como corpus de análisis 17.323 comentarios publicados por usuarios comunes en las redes sociales (Facebook y Youtube) de 5 actores implicados: Juan Manuel Santos, Óscar Iván Zuluaga, Nairo Quintana, Rigoberto Urán y la Selección Colombia de Fútbol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la provincia de Zamora Chinchipe se implementa el primer proyecto minero de explotación de cobre a gran escala, bajo la modalidad de cielo abierto, en Ecuador, al que se lo ha denominado «Mirador». A partir de este caso se realiza un análisis crítico del alcance y vigencia del derecho de participación de pueblos y comunidades en el marco de un modelo económico extractivista y primario exportador. En este contexto se evidencia que tanto la consulta ambiental y la consulta previa libre e informada a los pueblos indígenas, a pesar de estar reconocidos como derechos, no son mecanismos reales de participación, ni están diseñados para influir en las decisiones relacionadas con políticas extractivistas, pues más bien se subordinan a los intereses del desarrollo, noción que, aunque tome diversos nombres, sigue teniendo como sustento ideológico el crecimiento económico y la mercantilización de la naturaleza. El propósito de este trabajo es alentar el debate crítico alrededor del tema de los derechos humanos, que permita su análisis desde una mirada integral que trascienda el ámbito jurídico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente artículo, se investiga la relación existente entre las actitudes frente al riesgo mostradas por los individuos en la toma de decisiones económicas y los procesos psicológicos descritos por la teoría de la comparación social. Para ello, se implementa un experimento en el que los sujetos deben realizar una tarea de elección de loterías bajo distintas condiciones, que difieren entre sí en formación social disponible. Confirmando las predicciones de la teoría de la comparación social, los resultados obtenidos indican que la información acerca de las actitudes frente al riesgo mostradas por los demás puede desempeñar un importante papel en la determinación de las actitudes frente al riesgo individuales. Palabras clave: decisión bajo riesgo, actitud frente al riesgo mostradas por los demás puede desempeñar un importante papel en la determinación de las actitudes frente al riesgo individuales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work we explore the synergistic use of future MSI instrument on board Sentinel-2 platform and OLCI/SLSTR instruments on board Sentinel-3 platform in order to improve LST products currently derived from the single AATSR instrument on board the ENVI- SAT satellite. For this purpose, the high spatial resolu- tion data from Setinel2/MSI will be used for a good characterization of the land surface sub-pixel heteroge- neity, in particular for a precise parameterization of surface emissivity using a land cover map and spectral mixture techniques. On the other hand, the high spectral resolution of OLCI instrument, suitable for a better characterization of the atmosphere, along with the dual- view available in the SLTSR instrument, will allow a better atmospheric correction through improved aero- sol/water vapor content retrievals and the implementa- tion of novel cloud screening procedures. Effective emissivity and atmospheric corrections will allow accu- rate LST retrievals using the SLSTR thermal bands by developing a synergistic split-window/dual-angle algo- rithm. ENVISAT MERIS and AATSR instruments and different high spatial resolution data (Landsat/TM, Proba/CHRIS, Terra/ASTER) will be used as bench- mark for the future OLCI, SLSTR and MSI instruments. Results will be validated using ground data collected in the framework of different field campaigns organized by ESA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca a implementação da replicação de objetos através da linguagem Java e de seu sistema de invocação remota de métodos (Remote Method Invocation - RMI). A partir deste sistema, define-se uma classe de replicação - a máquina de replicação – onde a implementação de grupos de objetos é estruturada de acordo com a arquitetura cliente/servidor, sendo o cliente o representante (a interface) de um grupo de objetos e os servidores representam os demais componentes do grupo. A classe de replicação atende a uma necessidade importante dos sistemas distribuídos - o desenvolvimento de aplicações tolerantes a falhas. Fundamentalmente, a tolerância a falhas é obtida por redundância e, no caso de mecanismos de tolerância a falhas por software, esta redundância significa basicamente replicação de dados, processos ou objetos. A tolerância a falhas para tal tipo de sistema é importante para garantir a transparência do mesmo, visto que, assim como um sistema distribuído pode auxiliar muito o usuário pelas facilidades oferecidas, o não cumprimento de suas atividades de acordo com o esperado pode, em algumas situações, causar-lhe transtornos e erros irrecuperáveis nas aplicações. Finalmente, como principal contribuição, este trabalho descreve e implementa a solução completa para a construção de uma biblioteca de classes que oferece a replicação de forma totalmente transparente para o usuário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho define e implementa um sistema de controle de consumo para redes de computadores, objetivando aumentar o tempo de operação da rede em caso de operação com recursos limitados e redução de consumo de energia em situações de fornecimento normal. Na definição do sistema, denominado NetPower, foi estabelecida uma estrutura através da qual um gerente (coordenador) monitora as atividades dos equipamentos vinculados à rede, e determina alterações nos estados de consumo respectivos, de acordo com as necessidades ou atendimento de padrões de otimização. Aos equipamentos podem ser atribuídos diferentes privilégios em uma hierarquia adaptável a diversos ambientes. Um reserva oferece opção às falhas do gerente. A implementação está baseada no protocolo SNMP (Simple Network Management Protocol) para a gerência e são considerados preponderantemente os padrões para controle de consumo dos equipamentos Advanced Power Management, APM, e Advanced Configuration and Power Interface Specification, ACPI. Além da arquitetura do gerente e dos agentes, foi definida também uma MIB (Management Information Base) para controle de consumo. No projeto do sistema, foi privilegiado o objetivo de utilização em qualquer ambiente de rede, sem preferência por equipamentos de algum fabricante específico ou por arquitetura de hardware. Tecnologias de domínio público foram utilizadas, quando possível. No futuro este sistema pode fazer parte da distribuição de sistemas operacionais, incorporando controle de consumo às redes. No texto é feita uma comparação entre os softwares existentes para controle de consumo, são apresentados os recursos de controle de consumo disponíveis nos equipamentos de computação, seguido da descrição do protocolo de gerência utilizado. Em seguida, é apresentada a proposta detalhada do sistema de controle e descrita da implementação do protótipo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação, assumimos os pressupostos formais do modelo não-linear da Fonologia Lexical (FL). Adotamos, como hipótese de trabalho - nos termos de Labov (1981), Labov (1994) e Kiparsky (1988)- a resolução da controvérsia neogramática a partir deste modelo. Para tanto, apresentamos a análise de dois fenômenos do Português Brasileiro (PB), com base em dados empíricos extraídos da cidade de Porto Alegre, os quais confrontamos com as predições que emanam do modelo teórico. Num primeiro momento, discutimos o status lexical e pós-lexical das regras de vocalização de /l/ e monotongação de /ow/. Num segundo momento, apresentamos a caracterização desses dois tipos de mudança. Essas discussões fundamentam-se em resultados estatísticos, obtidos a partir da utilização do pacote VARBRUL. Partindo dessas discussões, propomos o ordenamento dessas regras nos componentes do modelo da Fonologia Lexical (FL), rastreando esses processos nos módulos do léxico e do pós-léxico. A escolha destes dois fenômenos não é aleatória: da análise destas regras nos termos da FL emergem questões não devidamente tratadas no PB, como a opacidade e a presença de regras variáveis no léxico. Também destacamos a controvérsia sobre a representação dos segmentos envolvidos nestes processos: dedicamos um capítulo para a discussão sobre a representação da lateral e do processo de vocalização; e outro para a discussão sobre a representação subjacente do ditongo /ow/. Conforme a análise dos resultados, concluímos que a regra de monotongação de /ow/ comporta-se como regra lexical e implementa um tipo de mudança que se difunde lexicalmente. Já a regra de vocalização de /l/ caracteriza-se como regra pós-lexical e encaixa-se no molde de mudança neogramática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este texto apresenta um novo modelo multiparadigma orientado ao desenvolvimento de software distribuído, denominado Holoparadigma. O Holoparadigma possui uma semântica simples e distribuída. Sendo assim, estimula a modelagem subliminar da distribuição e sua exploração automática. A proposta é baseada em estudos relacionados com modelos multiparadigma, arquitetura de software, sistemas blackboard, sistemas distribuídos, mobilidade e grupos. Inicialmente, o texto descreve o modelo. Logo após, é apresentada a Hololinguagem, uma linguagem de programação que implementa os conceitos propostos pelo Holoparadigma. A linguagem integra os paradigmas em lógica, imperativo e orientado a objetos. Além disso, utiliza um modelo de coordenação que suporta invocações implícitas (blackboard) e explícitas (mensagens). A Hololinguagem suporta ainda, concorrência, modularidade, mobilidade e encapsulamento de blackboards em tipos abstratos de dados. Finalmente, o texto descreve a implementação da Holoplataforma, ou seja, uma plataforma de desenvolvimento e execução para a Hololinguagem. A Holoplataforma é composta de três partes: uma ferramenta de conversão de programas da Hololinguagem para Java (ferramenta HoloJava), um ambiente de desenvolvimento integrado (ambiente HoloEnv) e um plataforma de execução distribuída (plataforma DHolo).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho implementa um método computacional semi-automático para obter medidas de estruturas cardíacas de fetos humanos através do processamento de imagens de ultra-som. Essas imagens são utilizadas na avaliação cardíaca pré-natal, permitindo que os médicos diagnostiquem problemas antes mesmo do nascimento. A dissertação é parte de um projeto desenvolvido no Instituto de Informática da Universidade Federal do Rio Grande do Sul, denominado SEGIME (Segmentação de Imagens Médicas). Neste projeto, está sendo desenvolvida uma ferramenta computacional para auxiliar na análise de exames ecocardiográficos fetais com o apoio da equipe de Cardiologia Fetal do Instituto de Cardiologia do Rio Grande do Sul. O processamento de cada imagem é realizado por etapas, divididas em: aquisição, pré-processamento, segmentação e obtenção das medidas. A aquisição das imagens é realizada por especialistas do Instituto de Cardiologia. No pré-processamento, é extraída a região de interesse para a obtenção das medidas e a imagem é filtrada para a extração do ruído característico das imagens de ultra-som. A segmentação das imagens é realizada através de redes neurais artificiais, sendo que a rede neural utilizada é conhecida como Mapa Auto-organizável de Kohonen. Ao final do processo de segmentação, a imagem está pronta para a obtenção das medidas. A técnica desenvolvida nesta dissertação para obtenção das medidas foi baseada nos exames realizados pelos especialistas na extração manual de medidas. Essa técnica consiste na análise da linha referente à estrutura de interesse onde serão detectadas as bordas. Para o início das medidas, é necessário que o usuário indique o ponto inicial sobre uma borda da estrutura. Depois de encontradas as bordas, através da análise da linha, a medida é definida pela soma dos pixels entre os dois pontos de bordas. Foram realizados testes com quatro estruturas cardíacas fetais: a espessura do septo interventricular, o diâmetro do ventrículo esquerdo, a excursão do septum primum para o interior do átrio esquerdo e o diâmetro do átrio esquerdo. Os resultados obtidos pelo método foram avaliados através da comparação com resultados de referência obtidos por especialistas. Nessa avaliação observou-se que a variação foi regular e dentro dos limites aceitáveis, normalmente obtida como variação entre especialistas. Desta forma, um médico não especializado em cardiologia fetal poderia usar esses resultados em um diagnóstico preliminar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Para a análise estática e dinâmica, linear e não-linear de placas, cascas e vigas, implementa-se neste trabalho o elemento hexaédrico com integração reduzida, livre de travamento volumétrico e travamento de cisalhamento e que não apresenta modos espúrios. Na formulação do elemento, utiliza-se apenas um ponto de integração. Desta forma, a matriz de rigidez é dada de forma explícita e o tempo computacional é significativamente reduzido, especialmente em análise não-linear. Os modos espúrios são suprimidos através de um procedimento de estabilização que não exige parâmetros especificados pelo usuário. Para evitar o travamento de cisalhamento, desenvolve-se o vetor de deformações num sistema co-rotacional e remove-se certos termos não constantes nas componentes de deformações de cisalhamento. O travamento volumétrico é resolvido fazendo-se com que a parte dilatacional (esférica) da matriz gradiente seja avaliada apenas no ponto central do elemento. Como a eliminação do travamento de cisalhamento depende de uma abordagem no sistema local, emprega-se um procedimento co-rotacional para obter o incremento de deformação no sistema local e atualizar os vetores de tensões e forças internas na análise não-linear Para a solução das equações de equilíbrio na análise estática, utilizam-se métodos diretos baseados na eliminação de Gauss ou métodos iterativos de Gradientes Conjugados Precondicionado elemento-por-elemento (EBE). Para a análise dinâmica, as equações de equilíbrio são integradas através do método explícito de Taylor-Galerkin ou do método implícito de Newmark. Através de exemplos numéricos demonstra-se a eficiência e o potencial do elemento tridimensional na análise de casca, placas e vigas submetidas a grandes deslocamentos e grande rotações. Os resultados são comparados com trabalhos que utilizam elementos clássicos de placa e casca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo geral implantar um programa de produção mais limpa e prevenção à poluição na disciplina de análise química do curso técnico de química de escola de nível médio. O foco do estudo foi análise química quantitativa por métodos clássicos de volumetria e gravimetria, desenvolvido com 3 turmas de alunos. Para isto, a literatura foi revisada, buscando-se os conceitos de Produção mais Limpa (PML), good housekeeping, Prevenção à Poluição (P2), Planos Curriculares Nacionais (PCNs), Constituição Federal e Estadual e implicações de assuntos ambientais e de segurança no ensino da química. A seguir efetuou-se um plano de trabalho e realizou-se a implementa-ção de medidas. Foram estabelecidas como medidas a minimização de reagentes, insumos e resíduos, a reutilização e reciclagem dos mesmos e a conscientização dos alunos sobre sua responsabilidade ambiental em 2 turmas de alunos, mantendo-se a outra como turma controle. Para avaliação de resultados foram usados indicadores quantitativos e qualitativos como quantidades de reagentes, insumos (água potável, detergente e papel toalha) e resí-duos, análise estatística dos resultados analíticos através teste Q, teste F, teste de t student e coeficiente de variação, análise de custos e postura dos estudantes frente a assuntos ambi-entais medidos através de suas atitudes. Os resultados mostraram que houve redução de 50% de reagentes, 55% de insumos, 50% de compostos químicos nos resíduos destinados para a estação de tratamento de efluentes em um volume 31% menor, superando as expec-tativas. Não houve diferença significativa nos resultados analíticos encontrados. A postura dos estudantes mostrou o nível de conscientização esperado. Verificou-se que, com as de-vidas adaptações, é possível aplicar um programa de produção mais limpa e prevenção à poluição em análise química e também em outras disciplinas.