46 resultados para Sistema de biblioteca
Resumo:
Por se tratar de um elemento essencial às plantas e um metal pesado ao mesmo tempo, o níquel requer atenção quanto aos aspectos da fisiologia de plantas e ambiental. Além disso, existe um intervalo estreito entre as exigências nutricionais e os teores tóxicos às plantas. Neste contexto, objetivou-se avaliar o efeito do Ni no sistema solo-planta, com foco no ciclo do N e a disponibilidade do elemento no solo, por meio de experimento em condições controladas, utilizando vasos distribuídos inteiramente ao acaso, utilizando-se esquema fatorial 2 x 5, com sete repetições cada tratamento. O primeiro fator foi constituído de duas saturações por base (50 e 70%) e o segundo de cinco doses de Ni (0; 0,1; 0,5; 1,0 e 10,0 mg dm-3 de solo). Os vasos foram preenchidos com 8 dm3 de terra e cultivados com soja [Glycine max (L.) Merrill] sucedida por girassol (Helianthus annuus L.). Os parâmetros qualitativos e quantitativos: altura de plantas (AP), diâmetro do caule (DC), número de nós (NN), estádio fenológico (EF), índice SPAD e, diâmetro do capítulo (DCap) (para girassol) foram avaliadas aos 30 e 60 dias após a emergência (d.a.e.) de cada cultivo. Plantas inteiras de soja, amostradas em quatro vasos de cada tratamento, foram coletadas no estádio R1. Na mesma ocasião foram coletadas amostras de solo da rizosfera. Em seguida, as plantas coletadas foram divididas em: folhas; raízes (nódulos na soja) e parte aérea. Foram determinados nas folhas utilizadas para diagnose em soja e girassol: os teores de macro e micronutrientes, as atividades da redutase do nitrato e da urease e as concentrações dos ácidos orgânicos: oxálico, malônico, succínico, málico, tartárico, fumárico, oxaloacético, cítrico e lático. Os mesmos ácidos orgânicos foram determinados em raízes secundárias de girassol e nódulos de soja. Foram realizadas avaliações ultraestruturais por meio de microscopia eletrônica de transmissão (MET) em raízes de girassol, e estruturais e de tonalidade em nódulos de soja, por meio de microscopia de luz. No solo, foram determinadas: atividade urease, desidrogenase, Ni total e fitodisponível pelos métodos: Mehlich-1, Mehlich-3 e DTPA. No período de maturidade fisiológica de cada cultura foi realizada a colheita das plantas dos vasos restantes para determinação de produção de grãos, teores de Ni na planta inteira e Ni e N nos grãos. Ao final dos dois experimentos foi realizada nova coleta de solo para extração sequencial de Ni. O índice SPAD em soja aos 60 d.a.e., a produção de massa seca da parte aérea da soja e da raiz de girassol foram influenciados pela saturação por bases, doses de níquel e pela a interação destes. Foram influenciados pelas saturações por base e doses de níquel (fatores isolados): para soja: AP aos 60 d.a.e., NN aos 30 e 60 d.a.e., SPAD aos 30 d.a.e.; para girassol: AP e NN aos 30 e 60 d.a.e., DC e SPAD aos 30 d.a.e. As demais variáveis avaliadas aos 30 e 60 d.a.e. foram influenciadas apenas pela saturação por bases, ou doses de Ni separadamente. As plantas de soja e girassol apresentaram maiores teores de Ni nos diferentes tecidos avaliados (exceto grãos) quando cultivadas sob V50%. A produção de grãos de soja e girassol não foi influenciada pelos tratamentos, porém o teor de N dos grãos de soja influenciado pelas doses de Ni na V70%. A atividade da enzima urease nas folhas de soja e girassol foi responsiva positivamente ao aumento das doses de Ni. Quatro dos ácidos orgânicos avaliados e o teor de N nas folhas e nos grãos foram maiores nas plantas cultivadas sob V70% com a dose de 0,5 mg dm-3 de Ni. As doses de Ni bem com as saturações por bases influenciaram diretamente o balanço de nutrientes das plantas. Os extratores Mehlich-1, Mehlich-3 e DTPA apresentaram elevado coefienciente de correlação entre a fração de Ni disponível no solo e a concentração do elemento nas plantas de soja e girassol, sendo o extrator DTPA o que apresentou maior coeficiente de correlação. O Ni apresentou distribuição variável entre as diferentes frações do solo em função dos tratamentos. Os solos dos tratamentos com saturação por bases de 70% apresentaram maior concentração de Ni ligado a carbonato, comparado aos tratamentos sob saturação por bases de 50%. A distribuição do Ni entre as frações do solo seguiu a seguinte orgem: ligado a carbonato < trocável < ligado a óxidos < matéria orgânica < residual. A saturação por bases exerceu efeito diferenciado para a atividade da urease no solo em função da cultura avaliada. Por sua vez, o Ni exerceu efeito diferenciado sobre a atividade de desidrogenase em função da cultura estudada
Resumo:
A iodação do sal de mesa é considerada o caminho mais eficiente para controlar os Distúrbios por Deficiência de Iodo. Em países tropicais, o elemento pode ser adicionado na forma de KIO3. Para garantir que os níveis ideais do ânion estejam disponíveis ao consumidor, o controle de qualidade do sal consiste numa estratégia fundamental. Sistemas em fluxo com multicomutação representam uma alternativa versátil para o desenvolvimento de procedimentos simples, rápidos e limpos, minimizando o consumo de reagentes e a geração de resíduos. Nesse contexto, um procedimento analítico utilizando sistema com multicomutação e detecção espectrofotométrica foi desenvolvido para a determinação de iodato em sal de mesa. A reação empregada foi baseada na formação de um composto roxo (540 nm) entre iodato (IO3-) e p-aminofenol (PAP) em meio ácido. O tempo de residência da zona de amostra no percurso analítico foi explorado a fim de favorecer a reação lenta e a frequência de amostragem para a melhoria do desempenho analítico. Foram selecionados 2 pulsos para inserção de amostra, 3 pulsos para reagente (PAP 0,25% (m/v) em HCl 0,025 mol L-1), 7 ciclos de amostragem, 200 pulsos de carregador (água), bolha de ar de 1 s (40 µL), reator de 70 cm (3 mm d.i.) e parada de fluxo de 480 s. Resposta linear foi observada entre 2,28x10-5 e 3,65x10-4 mol L-1, descrita pela equação A = 0,2443 + 2030 C, r = 0,997. Limite de detecção (99,7% de confiança), coeficiente de variação (n = 20) e frequência de amostragem foram estimados em 8,2x10-6 mol L-1, 0,42% e 70 determinações por hora, respectivamente. Houve consumo de 1,05 mg de PAP e geração de 0,70 mL de resíduos por determinação. As principais espécies concomitantes presentes na amostra não interferiram na determinação de iodato em concentrações até 8 vezes maiores que as usualmente encontradas. Estudos de adição e recuperação de iodato foram realizados pelo procedimento proposto, obtendo porcentagens de recuperação entre 88 e 104%. O procedimento analítico desenvolvido apresenta sensibilidade adequada para a determinação de iodato em amostra de sal de mesa e elevada frequência de amostragem quando comparado com procedimentos descritos na literatura
Resumo:
Ftalocianina de alumínio-cloro (AlClPc) é um fotossensibilizador de segunda geração em terapia fotodinâmica (TFD) caracterizado por seu caráter anfifílico e tendência de auto-agregação em meio aquoso, o que prejudica seu potencial de aplicação. O aCHC é um substrato de transportadores de monocarboxilato (MCT) superexpresso em células de MCF-7. Objetivando a solubilização da AlClPc e aumento de internalização em tecidos neoplásicos nos propomos aqui o uso de DSPC e DOPC em diferentes proporções para formar vesículas lipidicas mistas (LV) na presença de aCHC como sistemas veiculadores de fármaco. Lv foi preparado pelo método de injeção etanólica e formou vesículas de dimensões nanométricas (aproximadamente 100 nm) com bom índice de polidispersão, valores negativos de potencial zeta e estáveis em meio aquoso por mais de 50 dias. AlClPc se complexou com o fosfato das LV o que conferiu uma localização interfacial às moléculas de AlClPc como demonstrado pelos resultados de supressão de fluorescência. Medidas de anisotropia, fluorescência estática e resolvida no tempo corroboram com estes resultados e demonstram que a auto-agregação da AlClPc ocorre mesmo em lipossomas. Entretanto, a veiculação da AlClPc por LV em carcinoma de células escamosas oral (OSCC) levou a um processo de desagregação demonstrado por (FLIM). Este incrível comportamento é novo e aumenta o conhecimento científico sobre o mecanismo intracelular de ação de fotossensibilizadores em TFD. Em TFD, ambos os sistemas LVIII+AlClPc e LVIII+AlClPc+aCHC não apresentaram toxicidade no escuro no período de incubação de 3 h com as concentrações de lipídios, AlClPc e aCHC iguais a 0,15 mmol/L, 0,5 umol/L e 10,0 umol/L, respectivamente. De maneira inesperada, o sistema LVIII+AlClPc foi mais eficiente em TFD que o sistema LVIII+AlClPc+aCHC, devido ao caráter antioxidante do aCHC. Estes resultados abrem uma nova perspectiva do potencial uso de LV-AlClPc para o tratamento fotodinâmico.
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.
Resumo:
As culturas do milho e da soja respondem pela maior parte da produção nacional de grãos, predominando o sistema de plantio direto. Para uma semeadura direta de qualidade, o bom aterramento do sulco é indispensável, pois garante um ambiente adequado às sementes. Neste sentido, é importante estimar a mobilização de solo promovida por uma haste sulcadora estreita durante esta operação. O modelo analítico existente visa representar a mobilização do solo no sistema de plantio convencional. Como consequência, há situações em que este não pode se aplicado, como no caso de hastes sulcadoras estreitas utilizadas em semeadoras de plantio direto. Nestas situações, o mecanismo de falha do solo pode se alterar, assumindo um comportamento não modelado na literatura. Essa pesquisa propõe um modelo fuzzy capaz de representar estas situações, aproveitando conhecimento da teoria de mecânica dos solos e da análise de resultados experimentais. No modelo proposto, parte das regras descrevem situações não abrangidas pelo modelo analítico, as quais foram formuladas a partir da estimativa das prováveis áreas de solo mobilizado. O modelo fuzzy foi testado com dados de experimentos conduzidos durante a pesquisa, em duas condições de granulometria de solo (arenoso e argiloso). O modelo proposto reproduziu as tendências observadas nos dados experimentais, mas superestimou os valores de área observados, sendo esse efeito bem mais intenso para os dados do experimento em solo arenoso. A superestimativa ocorreu devido à soma de diversos fatores. Um deles é a diferença entre as leituras experimentais, as quais consideram apenas o solo realmente movimentado, e a premissa do modelo analítico, que considera toda a área de solo incluindo aquela cisalhada, porém não mobilizada. Outro fator foi devido ao efeito do disco de corte da palha, que pré-cisalha o solo à frente da ferramenta. No ensaio em solo arenoso os valores observados de área de solo mobilizado foram menores que os esperados, intensificando o efeito de superestimativa do modelo fuzzy, sendo que este efeito não representa uma deficiência deste modelo.
Resumo:
A otimização de sistemas do tipo Ti-Si-X requer que os sistemas binários estejam constantemente atualizados. O sistema Ti-Si foi investigado experimentalmente desde a década de 50 e poucos estudos usaram os dados experimentais para calcular o diagrama de fases Ti-Si usando modelamento termodinâmico. A otimização mais recente do sistema Ti-Si foi realizada em 1998, descrevendo a fase Ti5Si3 como um intermetálico não estequiométrico contendo três sub-redes e mostrando a presença da fase intermetálica estequiométrica Ti3Si. Dada a recente disputa sobre a cinética de precipitação e a estabilidade das fases Ti3Si e Ti5Si3 nos sistemas Ti-Si e Ti-Si-X, o canto rico em titânio do sistema Ti-Si (estável e metaestável) foi otimizado no presente trabalho. Os limites de estabilidade de fases, os valores dos erros pelo método dos mínimos quadrados do procedimento de otimização e os desvios padrões relativos das variáveis calculadas foram discutidos para inspirar a realização de mais trabalhos experimentais para investigar as reações eutetóides estáveis e/ou metaestáveis, ?->? + Ti3Si e ?->? + + Ti5Si3; e para melhorar cada vez mais as otimizações termodinâmicas do diagrama de fases do sistema Ti-Si.
Resumo:
O atual arcabouço normativo de proteção do investidor no mercado de capitais brasileiro teve suas linhas mestras cravadas pela reforma bancária introduzida pelas Leis 4.595, de 31 de dezembro de 1964, e 4.728, de 14 de julho de 1965, pela criação de um regulador especializado em mercado de capitais pela Lei 6.385, de 07 de dezembro de 1976, e pela reforma da legislação das sociedades anônimas introduzida pela Lei 6.404, de 15 de dezembro de 1976. Desde 1976, o arcabouço normativo de proteção do investidor no mercado de capitais brasileiro vem sendo desenvolvido a partir dessas linhas mestras iniciais, incorporando as lições aprendidas com as turbulências e euforias vividas pela economia nacional. Esse arcabouço normativo que aí está desde 1976 foi inspirado por contribuições do direito federal norte-americano, as quais foram conscientemente captadas no Brasil pelo legislador e pela comunidade jurídica nacional. Difundiram-se internacionalmente dos EUA para o Brasil os preceitos da proteção do investidor no mercado de capitais calcados na existência de um órgão regulador do mercado de capitais, na divulgação de informações relevantes para decisões de investimento (disclosure), na regulação funcional dos agentes do mercado de capitais e na vedação de fraudes com valores mobiliários.
Resumo:
No setor de energia elétrica, a área que se dedica ao estudo da inserção de novos parques geradores de energia no sistema é denominada planejamento da expansão da geração. Nesta área, as decisões de localização e instalação de novas usinas devem ser amplamente analisadas, a fim de se obter os diversos cenários proporcionados pelas alternativas geradas. Por uma série de fatores, o sistema de geração elétrico brasileiro, com predominância hidroelétrica, tende a ser gradualmente alterada pela inserção de usinas termoelétricas (UTEs). O problema de localização de UTEs envolve um grande número de variáveis através do qual deve ser possível analisar a importância e contribuição de cada uma. O objetivo geral deste trabalho é o desenvolvimento de um modelo de localização de usinas termoelétricas, aqui denominado SIGTE (Sistema de Informação Geográfica para Geração Termoelétrica), o qual integra as funcionalidades das ferramentas SIGs (Sistemas de Informação Geográfica) e dos métodos de decisão multicritério. A partir de uma visão global da área estudada, as componentes espaciais do problema (localização dos municípios, tipos de transporte, linhas de transmissão de diferentes tensões, áreas de preservação ambiental, etc.) podem ter uma representação mais próxima da realidade e critérios ambientais podem ser incluídos na análise. Além disso, o SIGTE permite a inserção de novas variáveis de decisão sem prejuízo da abordagem. O modelo desenvolvido foi aplicado para a realidade do Estado de São Paulo, mas deixando claro a viabilidade de uso do modelo para outro sistema ou região, com a devida atualização dos bancos de dados correspondentes. Este modelo é designado para auxiliar empreendedores que venham a ter interesse em construir uma usina ou órgãos governamentais que possuem a função de avaliar e deferir ou não a licença de instalação e operação de usinas.
Resumo:
Este trabalho de pesquisa apresenta a Metodologia para a Homologação dos Equipamentos do Sistema Canal Azul da Carne - MHECAC. Esta proposta de metodologia é complementar ao desenvolvimento do Sistema Canal Azul da Carne e tem o objetivo de apoiar o MAPA (Ministério da Agricultura, Pecuária e Abastecimento) no estabelecimento de um processo de verificação da conformidade de equipamentos, buscando garantir a interoperabilidade, o desempenho e a segurança de seus componentes de hardware. O Sistema Canal Azul é uma realização do MAPA em conjunto com o GAESI da Escola Politécnica da Universidade de São Paulo (EPUSP) e a iniciativa privada, e tem o objetivo de reduzir o tempo empregado nos processos de exportação de carnes no Brasil. A MHECAC baseia-se na estrutura de processo de avaliação de conformidade estabelecida pelo Sistema Brasileiro de Avaliação da Conformidade - SBAC e seus requisitos gerais podem ser aplicados à avaliação de conformidade de produtos em setores variados. No desenvolvimento da MHECAC foram aplicadas as principais referências técnicas e normativas correspondentes aos equipamentos que compõe a arquitetura do sistema Canal Azul. Além disto, foram definidos os modelos de homologação, auditoria e inspeção, os planos de amostragem, os requisitos mínimos e a metodologia de ensaio. A MHECAC subdivide-se em dois segmentos principais. O primeiro apresenta os requisitos gerais para o estabelecimento de sistemas de avaliação da conformidade e certificação de produtos, a aplicação destes requisitos não se limita ao Sistema Canal Azul, e o segundo apresenta requisitos específicos ao sistema estabelecido pelo MAPA. A aplicação da MHECAC favorece o tratamento isonômico de fornecedores e é um importante balizador para a seleção de equipamentos, pois permite a qualificação e a comparação de soluções, por meio de um embasamento técnico, pautado pela qualidade.
Resumo:
Com o objetivo de aumentar o lucro de plantas químicas, a Otimização em Tempo Real (RTO) é uma ferramenta que busca determinar as condições ótimas operacionais do processo em estado estacionário, respeitando as restrições operacionais estabelecidas. Neste trabalho foi realizada a implementação prática de um ciclo RTO em um processo de destilação por recompressão de vapor (VRD), propileno-propano, da Refinaria de Paulínia (Petrobras S.A.), a partir de dados históricos da planta. Foram consideradas as principais etapas de um ciclo clássico de RTO: identificação de estado estacionário, reconciliação de dados, estimação de parâmetros e otimização econômica. Essa unidade foi modelada, simulada e otimizada em EMSO (Environment for Modeling, Simulation and Optimization), um simulador de processos orientado a equações desenvolvido no Brasil. Foram analisados e comparados dois métodos de identificação de estado estacionário, um baseado no teste estatístico F e outro baseado em wavelets. Ambos os métodos tiveram resultados semelhantes e mostraram-se capazes de identificar os estados estacionários de forma satisfatória, embora seja necessário o ajuste de parâmetros na sua implementação. Foram identificados alguns pontos estacionários para serem submetidos ao ciclo RTO e foi possível verificar a importância de partir de um estado estacionário para a continuidade do ciclo, já que essa é uma premissa do método. A partir dos pontos analisados, os resultados deste estudo mostram que o RTO é capaz de aumentar o ganho econômico entre 2,5-24%, dependendo das condições iniciais consideradas, o que pode representar ganhos de até 18 milhões de dólares por ano. Além disso, para essa unidade, verificou-se que o compressor é um equipamento limitante no aumento de ganho econômico do processo.
Resumo:
O propósito deste trabalho foi o desenvolvimento de um procedimento simulador de processo reproduzindo a etapa de destilação extrativa de uma unidade de extração de butadieno a partir de uma corrente de hidrocarbonetos na faixa de quatro átomos de carbono, através da adição do solvente n-metil-2- pirrolidona (NMP). Os resultados obtidos foram comparados e validados com dados de processo obtidos por uma unidade industrial de extração de butadieno. O aprofundamento nos conceitos do processo de separação através de uma ferramenta em simulador de processo capaz de predizer condições de operação permitiu avaliações de aumento de capacidade. A capacidade dos elementos internos dos equipamentos envolvidos na separação pode ser avaliada e a identificação do ponto inicial de engargalamento da unidade foi possível. O procedimento proposto também permite reduzir incertezas para identificação de novos pontos de engargalamento a partir de uma nova configuração dos elementos internos identificados como ineficientes com a elevação de carga processada.
Resumo:
Ensaios de distribuição de água de aspersores são convencionalmente realizados manualmente, requerendo tempo e mão de obra treinada. A automação desses ensaios proporciona redução da demanda por esses recursos e apresenta potencial para minimizar falhas e/ou desvios de procedimento. Atualmente, laboratórios de ensaio e calibração acreditados junto a organismos legais devem apresentar em seus relatórios a incerteza de medição de seus instrumentos e sistemas de medição. Além disso, normas de ensaio e calibração apresentam especificação de incerteza aceitável, como a norma de ensaios de distribuição de água por aspersores, ISO 15886-3 (2012), a qual exige uma incerteza expandida de até 3% em 80% dos coletores. Os objetivos deste trabalho foram desenvolver um sistema automatizado para os ensaios de aspersores em laboratório e realizar a análise de incerteza de medição, para sua quantificação nos resultados de ensaio e para dar suporte ao dimensionamento dos tubos de coleta. O sistema automático foi constituído por um subsistema de gerenciamento, por meio de um aplicativo supervisório, um de pressurização e um de coleta, por meio de módulos eletrônicos microprocessados desenvolvidos. De acordo com instruções do sistema de gerenciamento o sistema de pressurização ajustava a pressão no aspersor por meio do controle da rotação da motobomba, e o sistema de coleta realizava a medição da intensidade de precipitação de água ao longo do raio de alcance do aspersor. A água captada por cada coletor drenava para um tubo de coleta, que estava conectado a uma das válvulas solenoides de um conjunto, onde havia um transmissor de pressão. Cada válvula era acionada individualmente numa sequência para a medição do nível de água em cada tubo de coleta, por meio do transmissor. Por meio das análises realizadas, as menores incertezas foram obtidas para os menores diâmetros de tubo de coleta, sendo que se deve utilizar o menor diâmetro possível. Quanto ao tempo de coleta, houve redução da incerteza de medição ao se aumentar a duração, devendo haver um tempo mínimo para se atingir a incerteza-alvo. Apesar de cada intensidade requer um tempo mínimo para garantir a incerteza, a diferença mínima de nível a ser medida foi a mesma. Portanto, para os ensaios visando atender a incerteza, realizou-se o monitoramento da diferença de nível nos tubos, ou diferença de nível, facilitando a realização do ensaio. Outra condição de ensaio considerou um tempo de coleta para 30 voltas do aspersor, também exigido pela norma ISO 15886-3 (2012). A terceira condição considerou 1 h de coleta, como tradicionalmente realizado. As curvas de distribuição de água obtidas por meio do sistema desenvolvido foram semelhantes às obtidas em ensaios convencionais, para as três situações avaliadas. Para tempos de coleta de 1 h ou 30 voltas do aspersor o sistema automático requereu menos tempo total de ensaio que o ensaio convencional. Entretanto, o sistema desenvolvido demandou mais tempo para atingir a incerteza-alvo, o que é uma limitação, mesmo sendo automatizado. De qualquer forma, o sistema necessitava apenas que um técnico informasse os parâmetros de ensaio e o acionasse, possibilitando que o mesmo alocasse seu tempo em outras atividades.
Resumo:
A anotação geográfica de documentos consiste na adoção de metadados para a identificação de nomes de locais e a posição de suas ocorrências no texto. Esta informação é útil, por exemplo, para mecanismos de busca. A partir dos topônimos mencionados no texto é possível identificar o contexto espacial em que o assunto do texto está inserido, o que permite agrupar documentos que se refiram a um mesmo contexto, atribuindo ao documento um escopo geográfico. Esta Dissertação de Mestrado apresenta um novo método, batizado de Geofier, para determinação do escopo geográfico de documentos. A novidade apresentada pelo Geofier é a possibilidade da identificação do escopo geográfico de um documento por meio de classificadores de aprendizagem de máquina treinados sem o uso de um gazetteer e sem premissas quanto à língua dos textos analisados. A Wikipédia foi utilizada como fonte de um conjunto de documentos anotados geograficamente para o treinamento de uma hierarquia de Classificadores Naive Bayes e Support Vector Machines (SVMs). Uma comparação de desempenho entre o Geofier e uma reimplementação do sistema Web-a-Where foi realizada em relação à determinação do escopo geográfico dos textos da Wikipédia. A hierarquia do Geofier foi treinada e avaliada de duas formas: usando topônimos do mesmo gazetteer que o Web-a-Where e usando n-gramas extraídos dos documentos de treinamento. Como resultado, o Geofier manteve desempenho superior ao obtido pela reimplementação do Web-a-Where.
Resumo:
É importante que as redes elétricas tenham altos índices de confiabilidade, de forma a se manter a agilidade e a manutenção ideais para um melhor funcionamento. Por outro lado, o crescimento inesperado da carga, falhas em equipamentos e uma parametrização inadequada das funções de proteção tornam a análise de eventos de proteção mais complexas e demoradas. Além disso, a quantidade de informações que pode ser obtida de relés digitais modernos tem crescido constantemente. Para que seja possível uma rápida tomada de decisão e manutenção, esse projeto de pesquisa teve como objetivo a implementação de um sistema completo de diagnóstico que é ativado automaticamente quando um evento de proteção ocorrer. As informações a serem analisadas são obtidas de uma base de dados e de relés de proteção, via protocolo de comunicação IEC 61850 e arquivos de oscilografia. O trabalho aborda o sistema Smart Grid completo incluindo: a aquisição de dados nos relés, detalhando o sistema de comunicação desenvolvido através de um software com um cliente IEC61850 e um servidor OPC e um software com um cliente OPC, que é ativado por eventos configurados para dispará-lo (por exemplo, atuação da proteção); o sistema de pré-tratamento de dados, onde os dados provenientes dos relés e equipamentos de proteção são filtrados, pré-processados e formatados; e o sistema de diagnóstico. Um banco de dados central mantém atualizados os dados de todas essas etapas. O sistema de diagnóstico utiliza algoritmos convencionais e técnicas de inteligência artificial, em particular, um sistema especialista. O sistema especialista foi desenvolvido para lidar com diferentes conjuntos de dados de entrada e com uma possível falta de dados, sempre garantindo a entrega de diagnósticos. Foram realizados testes e simulações para curtos-circuitos (trifásico, dupla-fase, dupla-fase-terra e fase-terra) em alimentadores, transformadores e barras de uma subestação. Esses testes incluíram diferentes estados do sistema de proteção (funcionamento correto e impróprio). O sistema se mostrou totalmente eficaz tanto no caso de disponibilidade completa quanto parcial de informações, sempre fornecendo um diagnóstico do curto-circuito e analisando o funcionamento das funções de proteção da subestação. Dessa forma, possibilita-se uma manutenção muito mais eficiente pelas concessionárias de energia, principalmente no que diz respeito à prevenção de defeitos em equipamentos, rápida resposta a problemas, e necessidade de reparametrização das funções de proteção. O sistema foi instalado com sucesso em uma subestação de distribuição da Companhia Paulista de Força e Luz.
Resumo:
Computational Swarms (enxames computacionais), consistindo da integração de sensores e atuadores inteligentes no nosso mundo conectado, possibilitam uma extensão da info-esfera no mundo físico. Nós chamamos esta info-esfera extendida, cíber-física, de Swarm. Este trabalho propõe uma visão de Swarm onde dispositivos computacionais cooperam dinâmica e oportunisticamente, gerando redes orgânicas e heterogêneas. A tese apresenta uma arquitetura computacional do Plano de Controle do Sistema Operacional do Swarm, que é uma camada de software distribuída embarcada em todos os dispositivos que fazem parte do Swarm, responsável por gerenciar recursos, definindo atores, como descrever e utilizar serviços e recursos (como divulgá-los e descobrí-los, como realizar transações, adaptações de conteúdos e cooperação multiagentes). O projeto da arquitetura foi iniciado com uma revisão da caracterização do conceito de Swarm, revisitando a definição de termos e estabelecendo uma terminologia para ser utilizada. Requisitos e desafios foram identificados e uma visão operacional foi proposta. Esta visão operacional foi exercitada com casos de uso e os elementos arquiteturais foram extraídos dela e organizados em uma arquitetura. A arquitetura foi testada com os casos de uso, gerando revisões do sistema. Cada um dos elementos arquiteturais requereram revisões do estado da arte. Uma prova de conceito do Plano de Controle foi implementada e uma demonstração foi proposta e implementada. A demonstração selecionada foi o Smart Jukebox, que exercita os aspectos distribuídos e a dinamicidade do sistema proposto. Este trabalho apresenta a visão do Swarm computacional e apresenta uma plataforma aplicável na prática. A evolução desta arquitetura pode ser a base de uma rede global, heterogênea e orgânica de redes de dispositivos computacionais alavancando a integração de sistemas cíber-físicos na núvem permitindo a cooperação de sistemas escaláveis e flexíveis, interoperando para alcançar objetivos comuns.