923 resultados para Processamento distribuido


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente estudio busca evidenciar la ruptura existente entre los principios, derechos y garantías relativos al trabajo, consagrados tanto en la Constitución Política de la República, como en acuerdos y convenios internacionales suscritos por el Ecuador, por una parte; y por otra, la legislación secundaria que ha sido expedida en nuestro país desde inicios de los años 90, a espaldas de la Constitución, restringiendo en la práctica derechos y garantías laborales, por lo cual en algunos casos, incluso, ha sido declarada inconstitucional. Este proceso de reducción de derechos y garantías laborales –vía normativa secundaria– se justifica, según sus defensores, en los supuestos de que el trabajo es un bien escaso que debe ser distribuido de mejor manera, y de que es necesario reformar el rígido esquema laboral del país, para poder agilitar la contratación y despido de la mano de obra, dejando que operen las fuerzas del mercado; además, se aduce que los principios de tutela y continuidad de la relación laboral son un óbice en la generación de empleo y para atraer la inversión extranjera. Así, se pretende "tornar más competitiva" la producción nacional, para que el Ecuador se inserte en la economía mundial globalizada. Sin embargo, este ensayo evidencia que la reducción de derechos y garantías laborales no genera los efectos anotados; por el contrario, agudiza la brecha entre pobres y ricos, pudiendo generar graves estallidos sociales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación proporciona estrategias de marketing que permitan incrementar la venta de los servicios que ofrece el Laboratorio de Materiales de la PUCE, al sector de la Construcción de Quito. El contenido del tema está distribuido en cinco capítulos: Capítulo I, Contiene antecedentes, justificación del tema, Misión, Visión, Objetivos Generales y Objetivos Específicos. Capitulo II, Describe el marco teórico del Análisis de la Industria y del sector, análisis de las necesidades del consumidor, Mercado de consumidores y comportamiento de compra del consumidor, Modelo de conducta del consumidor, Características que afectan el comportamiento del consumidor final, El proceso de decisión del comprador, Análisis de los competidores, Identificación de las estrategias de los competidores y análisis de la empresa frente al sector productivo. Capítulo III, Está enfocado al análisis de las oportunidades de mercado, investigación de mercados, mercados actuales, mercados potenciales, determinación del tamaño de la muestra para clientes actuales y clientes potenciales y el procesamiento de la información, tabulación y análisis de los resultados obtenidos en los sondeos de investigación realizados tanto a clientes actuales de las cuatro áreas del laboratorio como a los clientes potenciales en el Área de Mecánica de Suelos. Capítulo IV, Corresponde al desarrollo de las estrategias de marketing tanto para clientes actuales como para clientes potenciales; dentro del Mix de marketing se ha desarrollado una descripción total sobre lo que se realiza en cada una de las cuatro áreas del laboratorio. En relación a la promoción del Mix de marketing para los clientes potenciales se ha considerado como medios publicitarios: revistas especiales, páginas amarillas, marketing directo, relaciones públicas y visita personalizada, con el correspondiente presupuesto y cronograma de publicidad. Capítulo V, Se presentan las conclusiones y recomendaciones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El pensamiento liberal y socialista en la obra de Ángel Felicísimo Rojas se propone tres objetivos específicos: 1) ofrecer una visión panorámica del origen, desarrollo histórico, matices, ejecutorias, alcances y limitaciones de las ideologías liberal y socialista en Europa, Latinoamérica y Ecuador, así como del influjo que las mismas han tenido en el devenir sociohistórico, cultural y literario de nuestro país; 2) caracterizar, analizar y valorar el desarrollo del pensamiento ideológico liberal y socialista en la obra narrativa y ensayística de Ángel Felicísimo Rojas; y, 3) describir y analizar lo referido a heterogeneidad y sujeto migrante en la novela más significativa de Ángel Felicísimo Rojas: El éxodo de Yangana. Su desarrollo se hizo teniendo como base la metodología y técnicas propias de la investigación bibliográfica documental, por tratarse de un estudio ubicado en el ámbito del análisis, crítica, valoración e interpretación de la narrativa de ficción. En relación directa con los objetivos específicos, el trabajo se presenta distribuido en tres capítulos: en el primero se ofrece una sucinta visión de las ideologías liberal y socialista y cómo, las mismas, han aportado en nuestro proceso de desarrollo sociohistórico, cultural y literario, poniendo especial énfasis en la narrativa y la novela; el segundo describe, analiza y valora las principales problemáticas / temáticas, que siendo de interés de las doctrinas liberal y socialista Rojas las asume y desarrolla en su obra; los aspectos considerados son: la crítica al modo de producción capitalista vigente, las clases sociales y la lucha de clases, el problema de la educación en el Ecuador, la valoración crítica de la narrativa ecuatoriana, el factor religioso, el internacionalismo, el antiimperialismo y los problemas limítrofes del Ecuador; el tercero, que intenta una nueva lectura de El éxodo de Yangana, se desarrolla por medio de tres subcapítulos: la migración como fenómeno sociológico, el proceso migratorio y la heterogeneidad y el sujeto migrante en El éxodo de Yangana. Una vez terminado el proceso investigativo se puede concluir que, efectivamente, hay una impronta de las ideologías liberal y socialista en la obra de Rojas y que las categorías teóricas heterogeneidad y sujeto migrante han resultado muy fecundas a la hora de aproximar una nueva lectura, análisis, crítica y valoración de El éxodo de Yangana de Ángel Felicísimo Rojas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tuberculose (TB) é uma doença infecto-contagiosa causada pelo bacilo Mycobacterium tuberculosis e que permanece como um importante problema de saúde pública mundial, sendo a TB pulmonar a forma mais comum de apresentação da doença. O diagnóstico precoce e tratamento adequado são essenciais para a eficácia dos programas públicos de controle da TB. Novos metodologias mais rápidas, sensíveis e específicas, como a reação em cadeia da polimerase (PCR), vem sendo propostas no diagnóstico da doença. O objetivo desse estudo foi avaliar o desempenho de duas PCR, a PCR em tempo real (qPCR) e a Nested PCR em único tubo (STNPCR), em diferentes amostras biológicas, no diagnóstico da tuberculose pulmonar, além de compará-las com as metodologias convencionais (baciloscopia e cultura) e entre si. Para isso foram analisados 125 pacientes que tiveram amostras de sangue (125 amostras de plasma e 116 amostras de PBMC), urina (n=125) e escarro (n=125) coletadas, totalizando a análise de 491 amostras biológicas. Amostras de escarro e urina foram descontaminadas pelo método de Petroff NAOH 4 por cento modificado e semeadas em meio de cultura Lõwenstein-Jensen (LJ), enquanto as amostras de sangue eram separadas em plasma e PBMC. Após processamento, deu-se a extração de DNA através do kit comercial da Qiagen seguida de amplificação pelas duas metodologias de PCR. Para análise estatística calculou-se a sensibilidade, especificidade, valores preditivos positivo e negativo e índice kappa das técnicas. A STNPCR apresentou, em amostras de sangue, sensibilidade de 26,3 por cento e especificidade de 97,7 por cento. Em amostras de urina observou-se uma S = 7,9 por cento e E = 98,9 por cento e em escarro S = 21,1 por cento e E = 98,9 por cento. Quando analisadas as asmotras em paralelo, a sensibilidade da STNPCR foi igual a 44,7 por cento enquanto sua especificidade foi 97,7 por cento. Já a qPCR, em amostras de sangue, obteve sensibilidade igual a 26,3 por cento e especificidade de 95,4 por cento. Em amostras de urina a sensibilidade obtida foi 47,4 por cento e a especificidade 79,3 por cento e, em escarro, S = 36,8 por cento e E = 95,4 por cento. Quando analisada em paralelo, a sensibilidade da qPCR foi 65,8 por cento e a especificidade foi 79,3 por cento. A baciloscopia de escarro apresentou sensibilidade de 41,7 por cento e especificidade de 100 por cento, enquanto as culturas em urina e escarro apresentaram sensibilidade e especificidade, respectivamente, de 10,5 por cento e 100 por cento e 60,5 por cento e 96,6 por cento. Pode-se concluir que a qPCR apresentou melhor desempenho quando comparada à STNPCR e também bom desempenho quando comparada às metodologias convencionais, e que quando analisa-se mais de um tipo de amostras biológica, a eficácia das técnicas é aumentada. Espera-se que com a utilização dessa técnica molecular, seja possível a melhor elucidação dos casos de TB pulmonar, promovendo maior taxa de tratamento dos pacientes e menor risco de transmissão da doença

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho efetua uma análise do recurso de embargos infringentes vigente em nosso ordenamento, verifica o conceito, a finalidade e a evolução histórica do recurso, avalia suas hipóteses de cabimento, os efeitos de sua interposição e o processamento nos tribunais, todos esses aspectos a luz das alterações sofridas pelas reformas processuais ao longo do tempo. Após, explana sobre a proposta de exclusão do recurso de embargos infringentes no anteprojeto do Novo Código de Processo Civil. Ainda, aborda sua manutenção não como recurso autônomo, mas sim como incidente processual, como técnica de julgamento proposta no Novo Código de Processo Civil.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo de caso exploratório propõe um esquema explicativo sistêmico para entendimento da relação da organização com seu ambiente. Nesta visão sistêmica, apresenta o produto como uma resposta da empresa aos estímulos recebidos do meio ambiente. Com essa perspectiva, ressalta a importância da troca e do processamento de informações entre a engenharia e a área comercial como pré-requisito para o desenvolvimento de novos produtos. O caso relatado, uma indústria do setor eletroeletrônico, permite uma melhor compreensão dos fatores que influenciam a comunicação entre os departamentos com funções de comercialização e desenvolvimento de produtos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é o estudo do comportamento, em termos de freqüências naturais de estruturas de torres estaiadas, para diversas situações de serviço. Para isso criou-se uma formulação para a determinação dessas freqüências, utilizando o método da matriz de transferência. O procedimento consiste na discretização da estrutura em elementos de barras, massas discretas, molas e amortecedores viscosos, para a representação da estrutura. Com relação aos cabos da torre estaiada, desenvolveu-se uma expressão que nos fornece a rigidez completa dos mesmos, apoiados nos extremos, com amortecimento viscoso e as propriedades físicas e geométricas uniformes. Além disso, os cabos podem ser inclinados e sujeitos à excitação horizontal harmônica no apoio superior. Nesse caso, considera-se uma deformada parabólica do cabo na posição de equilíbrio estático, e por outro lado, os deslocamentos dinâmicos são considerados pequenos. A rigidez do cabo é válida para um ângulo de inclinação que varia de zero (0) a noventa (90) graus. Esse método é aplicável a microcomputadores devido a pouca memória empregada no processamento de dados. Com esse intuito, foi elaborado um programa para microcomputadores de 16 bits, que possibilita o estudo da estrutura da torre sobre o efeito de flexão pura, torção pura ou acoplamento de ambos. Exemplos numéricos de torres estaiadas e do comportamento da rigidez de cabos foram desenvolvidos para as mais diversas situações de cálculo.