30 resultados para definido


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objetivo: A trombose da veia porta é uma causa importante de hiper-tensão porta em crianças e adolescentes, porém, em uma proporção importante dos casos, não apresenta fator etiológico definido. O objetivo desse estudo é determinar a freqüência de deficiência das proteínas inibidoras da coagulação – proteínas C, S e antitrombina − e das mutações fator V Leiden, G20210A no gene da protrombina e C677T da metileno-tetraidrofolato redutase em crianças e adolescentes com trom-bose da veia porta, definir o padrão hereditário de uma eventual deficiência das pro-teínas inibidoras da coagulação nesses pacientes e avaliar a freqüência da deficiên-cia dessas proteínas em crianças e adolescentes com cirrose. Casuística e Métodos: Foi realizado um estudo prospectivo com 14 crianças e adolescentes com trombose da veia porta, seus pais (n = 25) e dois gru-pos controles pareados por idade, constituídos por um grupo controle sem hepato-patia (n = 28) e um com cirrose (n = 24). A trombose da veia porta foi diagnosticada por ultra-sonografia abdominal com Doppler e/ou fase venosa do angiograma celíaco seletivo. A dosagem da atividade das proteínas C, S e antitrombina foi determinada em todos os indivíduos e a pesquisa das mutações fator V Leiden, G20210A da pro-trombina e C677T da metileno-tetraidrofolato redutase, nas crianças e adolescentes com trombose da veia porta, nos pais, quando identificada a mutação na criança, e nos controles sem hepatopatia. Resultados: Foram avaliados 14 pacientes caucasóides, com uma média e desvio padrão de idade de 8 anos e 8 meses ± 4 anos e 5 meses e do diagnóstico de 3 anos e 8 meses ± 3 anos e seis meses. Metade dos pacientes pertenciam ao gênero masculino. O motivo da investigação da trombose da veia porta foi hemorra-gia digestiva alta em 9/14 (64,3%) e achado de esplenomegalia ao exame físico em 5/14 (35,7%). Anomalias congênitas extra-hepáticas foram identificadas em 3/14 (21,4%) e fatores de risco adquiridos em 5/14 (35,7%) dos pacientes. Nenhum pa-ciente tinha história familiar de consangüinidade ou trombose venosa. A deficiência das proteínas C, S e antitrombina foi constatada em 6/14 (42,9%) (p < 0,05 vs con-troles sem hepatopatia), 3/14 (21,4%) (p > 0,05) e 1/14 (7,1%) (p > 0,05) pacientes com trombose da veia porta, respectivamente. A deficiência dessas proteínas não foi identificada em nenhum dos pais ou controles sem hepatopatia. A mutação G20210A no gene da protrombina foi identificada em um paciente com trombose da veia porta e em um controle sem hepatopatia (p = 0,999), mas em nenhum desses foi identificado a mutação fator V Leiden. A mutação C677T da metileno-tetraidrofo-lato redutase foi observada na forma homozigota, em 3/14 (21,4%) dos pacientes com trombose da veia porta e em 5/28 (17,9%) controles sem hepatopatia (p = 0,356). A freqüência da deficiência das proteínas C, S e antitrombina nos pacientes com cir-rose foi de 14/24 (58,3%), 7/24 (29,2%) e 11/24 (45,8%), respectivamente (p < 0,05 vs controles sem hepatopatia), sendo mais freqüente nos pacientes do subgrupo Child-Pugh B ou C, que foi de 11/12 (91,7%), 5/12 (41,7%) e 9/12 (75%), respectivamente (p < 0,05 vs controles sem hepatopatia). Conclusões: A deficiência de proteína C foi freqüente nas crianças e adolescentes com trombose da veia porta e não parece ser de origem genética. A deficiência de proteína S, antitrombina e as presenças das mutações G20210A da protrombina e C677T da metileno-tetraidrofolato redutase foram observadas mas não apresentaram diferença estatística significativa em relação ao grupo controle sem hepatopatia. O fator V Leiden não foi identificado. Os resultados deste estudo sugerem que a deficiência da proteína C pode ocorre como conseqüência da hiper-tensão porta. Os distúrbios pró-trombóticos hereditários não parecem apresentar um papel importante em relação à trombose nas crianças e adolescentes estudadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sistemas de gerência de workflow estão sendo amplamente utilizados para a modelagem e a execução dos processos de negócios das organizações. Tipicamente, esses sistemas interpretam um workflow e atribuem atividades a participantes, os quais podem utilizar ferramentas e aplicativos para sua realização. Recentemente, XML começou a ser utilizada como linguagem para representação dos processos bem como para a interoperação entre várias máquinas de workflow. Os processos de negócio são, na grande maioria, dinâmicos, podendo ser modi- ficados devido a inúmeros fatores, que vão desde a correção de erros até a adaptação a novas leis externas à organização. Conseqüentemente, os workflows correspondentes devem também evoluir, para se adequar às novas especificações do processo. Algumas propostas para o tratamento deste problema já foram definidas, enfocando principalmente as alterações sobre o fluxo de controle. Entretanto, para workflows representados em XML, ainda não foram definidos mecanismos apropriados para que a evolução possa ser realizada. Este trabalho apresenta uma estratégia para a evolução de esquemas de workflow representados em XML. Esta estratégia é construída a partir do conceito de versionamento, que permite o armazenamento de diversas versões de esquemas e a consulta ao hist´orico de versões e instâncias. As versões são representadas de acordo com uma linguagem que considera os aspectos de evolução. As instâncias, responsáveis pelas execuções particulares das versões, também são adequadamente modeladas. Além disso, é definido um método para a migração de instâncias entre versões de esquema, no caso de uma evolução. A aplicabilidade da estratégia proposta é verificada por meio de um estudo de caso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em um ambiente extremamente competitivo, baseado na globalização dos mercados, o Brasil reforça sua vocação no desenvolvimento dos agronegócios, como meio de melhor se inserir na economia mundial. Como as empresas brasileiras, ligadas a este setor, poderão continuar competindo, diante da atração de capitais e empresas internacionais em seus mercados tradicionais ? Parte-se da premissa que uma das possibilidades refere-se à formação de alianças estratégicas, do tipo consórcios de exportação, garantindo maiores oportunidades de sobrevivência, diante deste cenário. O estudo identifica quais os fatores estão presentes na formação destas alianças, a partir do acompanhamento da constituição de consórcios de exportação na cadeia de produção de suínos no Estado do Rio Grande do Sul. Definido como um estudo exploratório descritivo combinado, baseado em estudo de caso, o trabalho consistiu na revisão bibliográfica, pesquisa documental a fontes primárias, entrevistas de campo e pesquisa-ação. Analisando os resultados obtidos pela cadeia de produção de suínos, nos últimos anos, percebe-se que o desempenho do setor é bastante satisfatório no RS, principalmente com o aporte de investimentos internacionais recentes, utilizados na aquisição de empresas locais, tradicionalmente produtoras no Estado. Sendo assim, a pressão competitiva vem aumentando paulatinamente sobre as empresas nacionais remanescentes, sobretudo para as cooperativas de produção que, pouco a pouco, vêm perdendo posições nos mercados. A grande limitação do estudo foi não poder acompanhar a constituição formal do consórcio agroexportador, em função do ressurgimento da Febre Aftosa que impediu o fluxo internacional de carne suína e bovina procedente do Estado. Enfim, apesar dos entraves encontrados, verifica-se que a promoção dos consórcios poderá elevar a competitividade e a autonomia dos agronegócios do Brasil e do Rio Grande do Sul, principalmente naquelas cadeias de produção, cujos fatores críticos de sucesso são mais favoráveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral deste trabalho é analisar as relações existentes entre o capital social e as políticas públicas. Especificamente, pretende-se avaliar a capacidade de uma política pública brasileira em induzir a formação do capital social. Sendo esta política a “Linha Infra-estrutura e Serviços aos Municípios do Programa Nacional de Fortalecimento da Agricultura Familiar” (PRONAF). Fundando-se nas concepções de WOOLCOCK (1998), avalia-se que o capital social é uma noção teórica dinâmica e multidimensional, ocorrendo, portanto, vários tipos (institucional, extra-comunitário e comunitário) e dimensões (“enraizamento” e “autonomia”) de capital social. Conclui-se que o capital social ainda não é um conceito definido. Mas considera-se que é um arcabouço teórico emergente, com expressiva possibilidade de utilização nos estudos que procurem entender a importância das relações sociais no processo de desenvolvimento. Parte-se de uma crítica à concepção de capital social presente na obra de PUTNAM (1996). Avalia-se que o capital social não é formado apenas pelos “atributos culturais”, determinados historicamente, de uma dada população. O Estado também cumpre uma importante função “protetora” ou “coercitiva” que contribui para a formação do capital social social. Defende-se, inclusive (e de acordo com EVANS) que o Estado deve ter uma forma de atuação que seja mais “ativa” para a indução a formação do capital social, principalmente entre populações mais empobrecidas. São apresentadas experiências latino americanas de políticas públicas, que conseguiram êxito na indução a formação do capital social. A análise destas experiências evidenciaram que, em políticas públicas que visem à descentralização, o Governo central cumpre um papel primordial na proteção ao capital social emergente das populações pobres, em relação aos interesses dominantes das elites locais. E foi a adequada estratégia operacional destas políticas que permitiu que elas alcançassem tais objetivos Os principais mecanismos operacionais que estas políticas utilizaram para o seu sucesso foram a publicização, a formação e a capacitação, a proteção aos conselhos gestores locais e a presença de funcionários públicos, ao nível local, que cumpriam a função da “autonomia inserida”. A Linha Infra-estrutura e Serviços aos Municípios do PRONAF, que é o objeto desta investigação, é avaliada neste trabalho somente em relação à capacidade que possui em induzir a formação dos vários tipos e dimensões do capital social. As fontes empíricas utilizadas foram as várias pesquisas, estudos e relatórios de campo já elaborados sobre este programa. A hipótese básica de pesquisa foi comprovada e permitiu concluir que esta política pública têm uma baixa capacidade de indução a formação do capital social, especialmente o tipo institucional. Propõe-se a adoção de mecanismos operacionais em políticas públicas descentralizadas, ao moldes da Linha Infra-estrutura do PRONAF, com o objetivo de se buscar induzir a formação do capital social. E, por último, defende-se a importância da utilização de políticas públicas descentralizadas e da noção teórica sobre o capital social nas estratégias de desenvolvimento rural para o Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O câncer renal corresponde a aproximadamente 3% dos tumores malignos do adulto, sendo a terceira malignidade urológica mais comum. Os tratamentos sistêmicos disponíveis para pacientes portadores de carcinoma renal avançado são, via de regra, pouco eficazes e sem um impacto definido na sobrevida. Portanto, torna-se imperioso que novos agentes e/ou estratégias terapêuticas para esta enfermidade sejam desenvolvidas. O derivado das epipodolofilotoxinas, etoposide, tem sido utilizado com sucesso no tratamento de vários tipos de tumores sólidos e hematológicos. Este agente exerce a sua ação antitumoral através da inibição da enzima nuclear topoisomerase II. Estudos recentes demonstraram que o efeito citotóxico in vitro deste agente é bem mais pronunciado quando as linhagens tumorais são expostas à droga por um tempo mais prolongado. Isto vem sendo confirmado em estudos clínicos, nos quais foi documentado um aumento significativo no percentual de respostas tumorais objetivas em pacientes com câncer avançado tratados com etoposide em doses repetidas diárias de forma continuada, comparativamente a pacientes que receberam pulsos de doses altas da droga a intervalos mais longos. Infelizmente, estudos iniciais com etoposide não revelaram uma atividade antitumoral significativa em pacientes com câncer renal avançado. Por esta razão, os estudos preliminares explorando o potencial terapêutico de seu análogo teniposide nesta doença também não receberam a devida atenção na literatura. Entretanto, este análogo possui potenciais vantagens terapêuticas em relação ao etoposide, uma vez que apresenta um tempo de retenção intracelular mais prolongado em linhagens de tumores sólidos in vitro. Estas observações nos estimularam a reconsiderar o estudo do potencial citotóxico do teniposide em modelos experimentais de câncer renal avançado. Nesta dissertação, foram estudados vários protocolos de administração de teniposide em linhagens de câncer renal humano, uma vez que esta neoplasia carece de drogas ativas disponíveis no armamentário terapêutico. Foram utilizadas as linhagens celulares RXF-393, A-498 e TK-10, as quais foram incubadas com teniposide em concentrações pré-determinadas e tempos de incubação variáveis. Além disto, foram feitos experimentos em que protocolos de administração de teniposide como agente único foram comparados a protocolos em que o mesmo foi combinado com agentes que bloqueiam a ação da glicoproteína P, responsável pelo efluxo ativo da droga do interior da célula tumoral. Além disso, foram também estudados protocolos incluindo a associação de teniposide com agentes que interferem com a síntese do DNA. Para os estudos de avaliação de citotoxicidade dos agentes quimioterápicos, os mesmos foram pré-incubados por 24 h na ausência ou presença do inibidor da DNA polimerase α afidicolina glicinada (0,2 µM) ou do inibidor da ribonucleotídeo redutase hidroxiuréia (200 µM) e após incubados por diferentes tempos de exposição com diluições seriadas de teniposide. Os efeitos citotóxicos foram avaliados através do método colorimétrico com sulforodamina B (SRB). Os protocolos de exposição prolongada das células ao teniposide mostraram um aumento significativo na sua citotoxicidade nas linhagens RXF-393, A-498 e TK-10, sugerindo que a citotoxicidade do teniposide é dependente de tempo de administração. Neste sentido, uma maior taxa de dano no DNA foi observada nas células expostas ao teniposide por tempos de administração mais prolongados. Curiosamente, os diferentes tempos de exposição ao teniposide não influenciaram de forma clara na formação de complexos DNA-topoisomerase II, nem nas medidas da atividade desta enzima. O uso concomitante de agentes moduladores da glicoproteína P como o verapamil, a ciclosporina A e o tamoxifeno não produziu potencialização do efeito antiproliferativo do teniposide. Por sua vez, os tratamentos com agentes que interferem na síntese de DNA, como a afidicolina glicinada ou a hidroxiuréia, potencializaram a citotoxicidade do teniposide em todas as linhagens estudadas, seguindo as características intrínsecas de cada linhagem. Em conclusão, os resultados apresentados nesta dissertação sugerem que o teniposide apresenta um maior efeito citotóxico em protocolos de administração prolongada em combinação com agentes inibidores da síntese de DNA. Frente a estes resultados iniciais, o teniposide será testado nos protocolos de administração acima mencionados em um painel contendo um maior número de linhagens tumorais in vitro. Uma vez confirmadas as observações acima descritas, serão iniciados estudos em modelos tumorais in vivo. Estes estudos servirão de base nas decisões quanto à reavaliação clínica do teniposide em ensaios de fase I em pacientes com neoplasias avançadas refratárias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo teve o objetivo de investigar as hipóteses de "falha do supervisor mental" e razões contextuais" para as mudanças de tópico no discurso narrativo de idosos, através da teoria de Kintsch e Van Dijk (1978). Participaram do estudo vinte idosos e vinte jovens com nível universitário, tendo sido excluídos casos de depressão e patologias neurológicas. Os participantes de ambos os grupos realizaram duas avaliações da função de inibição (Teste de Fluência Verbal e Stroop) e foram solicitados a narrar uma estória pessoal e outra fictícia, com um tema definido. Cada proposição dos discursos foi classificada como relevante, indiretamente relevante ou irrelevante ao tópico, verificando também o uso de "estratégias de intenção do emissor" nas proposições não relevantes. Foi investigado também o número total de proposições, apreciações subjetivas e proposições repetidas. Os grupos etários e os gêneros narrativos foram comparados e foram estudadas correlações entre os testes neuropsicológicos e as variáveis de discurso. Os resultados do estudo indicaram que os idosos emitem mais informação indiretamente relevante e subjetiva em narrativas pessoais do que os jovens. Ambos os grupos apresentam uma maior proporção de proposições indiretamente relevantes em estórias pessoais e os idosos apresentaram preferência pelo relato pessoal em narrativas fictícias. Embora o desempenho dos idosos tenha sido mais baixo no teste Stroop do que o desempenho dos jovens, somente em jovens foi observada correlação entre proposições não relevantes e inibição. Os achados apoiaram a hipótese de razões contextuais para a menor focalização do idoso no tópico proposto, sugerindo que com o envelhecimento, ocorre uma mudança pragmática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho representa uma abordagem da ciência administrativa à Economia Solidária, que será descrito, e definido, nas páginas seguintes. Foi realizado um diagnóstico de como é praticada a gestão nos empreendimentos de economia solidária para então se poder construir proposições de capacitação e assessoria que possam colaborar na construção da sua sustentabilidade. Este fenômeno está inscrito em um quadro de desemprego e de exclusão social, que define um novo cenário social com novos e velhos atores desenvolvendo novos arranjos de articulação em prol do desenvolvimento. Este trabalho inicia justamente pela descrição desse novo quadro, problematizando os novos papéis dos atores sociais ante essa nova configuração de poder e de relacionamentos. Entendido esse cenário, investigam-se os diversos conceitos que têm sido atribuídos à economia solidária, o que permite que se resuma – sem reduzir – esses diversos ângulos de visão a um conceito sintético com o qual o autor vai trabalhar. A partir desse conceito, a questão da gestão e da eficiência dos empreendimentos de economia solidária passa a receber especial atenção, visando identificar as carências de conhecimento em gestão às quais a ciência administrativa pode dar respostas. O terceiro capítulo descreve os procedimentos metodológicos utilizados para o desenvolvimento da pesquisa. O quarto capítulo apresenta os dados levantados, e finalmente o quinto capítulo traz quatro diferentes tipos de conclusões sobre os empreendimentos de economia solidária.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma definição confiável dos requisitos de um software depende diretamente da completa e correta compreensão sobre as necessidades do sistema e sua conseqüente representação de forma adequada ao processo de desenvolvimento. Uma proposta de modelagem de requisitos deve apresentar qualidades que colaborem para a compreensão mútua das necessidades entre os envolvidos no processo e que organizem os requisitos de forma a permitir o acompanhamento no desenvolvimento do software. O presente trabalho apresenta um modelo de estruturação de requisitos fundamentado em metodologias orientadas a objetivos com utilização de cenários e preceitos da Teoria da Atividade. O modelo tem sua argumentação nas premissas que cliente e usuários normalmente expressam suas necessidades através de objetivos almejados e que a ação humana deve ser analisada dentro de um contexto para que possa fazer sentido e ser compreendida. Inserido no contexto do Projeto FILM1, cujo objetivo é expandir o Método Fusion, agregando uma etapa de modelagem de requisitos, o trabalho estabeleceu a qualidade de usabilidade como motivadora da definição de um modelo de estruturação de requisitos. A usabilidade é uma qualidade que visa facilitar a utilização do modelo como uma ferramenta de representação dos requisitos de forma inteligível, atuando tanto na especificação dos requisitos como na validação dos mesmos entre os envolvidos. Os requisitos são estruturados segundo uma abordagem voltada aos clientes e usuários do sistema. O modelo definido tem por objetivo prover a construção gradual e incremental do entendimento compartilhado entre os envolvidos sobre os domínios do problema e da solução, na concepção e no desenvolvimento do software. Metodologias orientadas a objetivos, operacionalizadas através de cenários, conjugadas a princípios da atividade oferecem um suporte adequado a estruturação de requisitos provendo usabilidade ao modelo. A avaliação da aplicabilidade do modelo é realizada com a modelagem de requisitos em três estudos de casos. Em cada caso são aplicadas técnicas de elicitação no sentido da afinar a sintonia com a estrutura do modelo de requisitos. A concepção do modelo, embasada em conceitos da Teoria da Atividade, é bastante adequado às atividades de elicitação em uma abordagem voltada aos clientes e usuários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de melhor se adaptar ao ambiente de competição (informacional) global, que se estrutura e se impõe a partir de uma ´divisão inter-regional do trabalho´, as regiões tendem a desenvolver estratégias de planejamento regional e urbano com o objetivo de impulsionar o parque produtivo informacional local. Intentam desta maneira compôr mecanismos locais que permitam a formação de um Sistema Local de Inovação, baseado na interação sinergética entre os atores sociais. Esta articulação regional trabalha em diversas esferas espaciais (e consequentemente temporais), uma vez que a fluida lógica estrutural do sistema informacional global (´espaço de fluxos´) difere dos mecanismos locais de articulação, pois estes estão ligados teluricamente às tradições culturais (´espaço de lugares´). Segundo Castells, o ´espaço de fluxos´ é definido como sendo um sistema de alcance global estruturado em redes (nós e eixos) permeadas por informações que circulam (eletronicamente) instantaneamente. Porém a dinâmica do sistema é gerada a partir do historicamente construído ´espaço de lugares´(local), articulado reflexivamente a partir da ação de três instituições internas (reconhecidas pelo modelo da Hélice Tripla como: universidades, empresas e governo). De maneira geral, podemos observar que a universidade, enquanto instituição empreendedora e voltada para a produção de inovações informacionais, passa a exercer importante função catalisadora deste processo de organização das forças produtivas regionais (a nível de ´espaço de lugares´) Reconhecendo que há uma tendência à incompatibilidade entre as esferas espaciais de articulação citadas (embora elas tenham uma existência ativa), esta dissertação irá sugerir a pertinência da observação de uma articulação espacial híbrida, tanto global-informacional quanto local-cultural (denominada ´espaço híbrido´), atuando estrategicamente na construção dos Sistemas Locais de Inovação. Desta maneira, com a finalidade de estruturar espacialmente os Sistemas Locais de Inovação, uma das principais estratégias que o planejador regional dispõe é a da formação e potencialização de clusters espaciais de inovação, na forma de programas de criação de pólos e/ou parques tecnológicos (e/ou tecnópoles). Tendo como objetivo a criação de um processo produtivo local sinergético e informacional, são projetadas e aplicadas políticas industriais e urbanas de longo prazo que buscam retirar o máximo possível da proximidade espacial existente e/ou induzida. Como estudo de caso, serão analisados projetos intra-urbanos atuantes nas áreas das Ciências da Vida. Inicialmente serão apresentados quatro casos internacionais, para por fim serem comparados ao projeto Porto Alegre Tecnópole (e em especial ao projeto Cidade Saúde de Porto Alegre).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

XML (eXtensibile Markup Language) é um padrão atual para representação e intercâmbio dos semi-estruturados na Web. Dados semi-estruturados são dados não convencionais cujas instâncias de uma mesma fonte de dados podem ter representações altamente heterogêneas. Em função isto, um esquema para estes dados tende a ser extenso para suportar todas as alternativas de representação que um dado pode assumir. Parte do grande volume de dados disponível hoje na Web é composto por fontes de dados heterogêneas XML sobre diversos domínios do conhecimento. Para realizar o acesso a estas fontes, aplicações na Web necessitam de um mecanismo de integração de dados. O objetivo principal deste mecanismo é disponibilizar um esquema de dados global representativo dos diversos esquemas XML das fontes de dados. Com base neste esquema global, consultas são formuladas, traduzidas para consultas sobre os esquemas XML, executadas nas fontes de dados e os resultados retornados à aplicação. Esta tese apresenta uma abordagem para a integração semântica de esquemas XML relativos a um domínio de aplicação chamada BInXS. BInXS adota um processo bottom-up de integração, no qual o esquema global é definido para um conjunto de esquemas XML representadas atrtavés de DTDs (Document Type Definitions). A vantagem do processo bottom-up é que todas as informações dos esquemas XML são consideradas no esquema global. Desta forma, toda a informação presente nas fontes de dados pode ser consultada. O processo de integração de BInXS é baseado em um conjunto de regras e algoritmos que realizam a cnversão de cada DTD para um esquema canônico conceitual e a posterior integração semântica propriamente dita destes esquemas canônicos. O processo é semi-automático pois considera uma eventual intervenção de um usuário especialista no domínio para validar ou confirmar alternativas de resultado produzidas automaticamente. Comparada com trabalhos relacionados, BInXS apresenta as seguintes contribuições: (i) uma representação canônica conceitual para esquemas XML que é o resultado de uma anállise detalhada do modelo XML; (ii) um étodo de unificação que lida com as particularidades da integração de dados semi-estruturados e; (iii) uma estratégia de mapeamento baseada em expressões de consulta XPath que possibilita uma tradução simples de consultas globais para consultas a serem executadas nas fontes de dados XML.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mosaicos de áreas úmidas fornecem hábitats para uma ampla gama de espécies de aves, que raramente se distribuem uniformemente dentro das mesmas. O cenário mundial atual do estudo de aves em áreas úmidas deixa bem claro que as metodologias para estudos quantitativos de aves em áreas úmidas ainda estão sendo criadas ou aperfeiçoadas. O mosaico formado pelas áreas úmidas do Banhado dos Pachecos é de reconhecida importância para a conservação de aves aquáticas, constituindo-se numa área ideal para estudos da avifauna. A presente dissertação tem como objetivo avaliar a estrutura espacial e sazonal da avifauna do Banhado dos Pachecos, tecer considerações sobre a conservação das aves aquáticas sob uma perspectiva de paisagem e testar a viabilidade de se utilizar amostragens matinais e vespertinas para análises de distribuição e abundância da avifauna. O Banhado dos Pachecos, juntamente com o Banhado Grande, formam o Sistema Banhado Grande. A amostragem da avifauna foi conduzida através de levantamentos qualitativos e quantitativos de modo a cobrir quatro estações climáticas: verão, outono, inverno e primavera. As amostragens qualitativas foram realizadas através de deslocamentos ad libitum entre e durante as amostragens quantitativas em todas as fisionomias. As amostragens quantitativas foram realizadas através de pontos de contagem, transecções e contagens totais. Riqueza, grupos funcionais de forrageio, grupos funcionais de nidificação, aves aquáticas, situação de ocorrência no Rio Grande do Sul, espécies ameaçadas de extinção e abundância foram os descritores utilizados para a caracterização da avifauna. A estatística empregada na análise dos dados multivariados baseou-se em métodos não-paramétricos de reamostragem através de aleatorização e “bootstrap”. Análises de agrupamentos foram realizadas para determinar a formação de grupos de fisionomias e análises de coordenadas principais foram realizadas para determinar se existia algum padrão de associação entre as diferentes fisionomias. Registraram-se 209 espécies de aves, vinte e e três grupos funcionais de forrageio, sete grupos funcionais de nidificação e 60 espécies de aves aquáticas e 11 espécies ameaçadas de extinção. Trinta e duas espécies apresentaram evidências discordantes da situação de ocorrência conhecida para o estado. Alguns fatores que poderiam ser fontes de viés para a interpretação das análises na presente dissertação foram abordados. A constância encontrada no conjunto de espécies da área de estudo pode refletir uma maior estabilidade ambiental. O alto número de grupos funcionais de forrageio e de nidificação registrados para a área de estudo sugere uma grande diversidade de recursos, reflexo da heterogeneidade entre as diferentes fisionomias. A origem de algumas espécies que se mostraram efetivamente migratórias, pois usaram a área de estudo em um período estacional bem definido, se mostra uma incógnita. Somente estudos extensivos e abrangentes poderão responder essas perguntas e propor medidas eficientes para a conservação tanto das áreas úmidas como das espécies que delas dependem. A restauração de um corredor de áreas úmidas entre o banhado dos Pachecos e o banhado Grande, juntamente com um manejo rotativo de cultivos de arroz parece ser a alternativa mais viável e conciliatória entre pontos de vista econômico e conservacionista para possibilitar o aumento da conectividade no Sistema Banhado Grande.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em decorrência do cada vez maior acirramento da concorrência e conseqüente diminuição das margens de lucro, as empresas vêem-se obrigadas a revisar e aprimorar seus sistemas de custeio. Dentro deste contexto, o trabalho inicia pela identificação de um custo referencial, definido a partir dos preços regularmente praticados pelo mercado. Em seguida, apresenta uma base para conhecimento de custos e analisa os métodos de custeio, tanto os tradicionais quanto os modernos (métodos do custeio baseado em atividades - Activity-Based Costing (ABC), da Unidade de Esforço da Produção (UEP) e um método de custeio combinado). O trabalho conclui com um estudo de caso, fazendo uma aplicação dos métodos estudados numa indústria do setor farmacêutico, ao final do qual, faz comparações dos métodos de custeio.