13 resultados para Inteligência analítica
em Universidade Federal do Pará
Resumo:
As concessionárias de energia, para garantir que sua rede seja confiável, necessitam realizar um procedimento para estudo e análise baseado em funções de entrega de energia nos pontos de consumo. Este estudo, geralmente chamado de planejamento de sistemas de distribuição de energia elétrica, é essencial para garantir que variações na demanda de energia não afetem o desempenho do sistema, que deverá se manter operando de maneira técnica e economicamente viável. Nestes estudos, geralmente são analisados, demanda, tipologia de curva de carga, fator de carga e outros aspectos das cargas existentes. Considerando então a importância da determinação das tipologias de curvas de cargas para as concessionárias de energia em seu processo de planejamento, a Companhia de Eletricidade do Amapá (CEA) realizou uma campanha de medidas de curvas de carga de transformadores de distribuição para obtenção das tipologias de curvas de carga que caracterizam seus consumidores. Neste trabalho apresentam-se os resultados satisfatórios obtidos a partir da utilização de Mineração de Dados baseada em Inteligência Computacional (Mapas Auto-Organizáveis de Kohonen) para seleção das curvas típicas e determinação das tipologias de curvas de carga de consumidores residenciais e industriais da cidade de Macapá, localizada no estado do Amapá. O mapa auto-organizável de Kohonen é um tipo de Rede Neural Artificial que combina operações de projeção e agrupamento, permitindo a realização de análise exploratória de dados, com o objetivo de produzir descrições sumarizadas de grandes conjuntos de dados.
Resumo:
O objetivo desta pesquisa é a construção e a aplicação de uma organização didática para a Geometria Analítica Plana, a partir do estudo dos Vetores, no 3º ano do ensino médio, à luz da Teoria Antropológica do Didático de Yves Chevallard e da teoria da Aprendizagem Significativa de David Ausubel. A pesquisa é de natureza qualitativa do tipo etnográfica na educação, de acordo com Marli André, e foi desenvolvido com um grupo de alunos em um contexto específico que é a preparação para o vestibular. A manipulação de objetos ostensivos para compreensão dos objetos não-ostensivos da Matemática serviu de categorias para análise das praxeologias vivenciadas em sala de aula. Concluímos que os alunos ao manipular as representações de objetos ostensivos resgatam conhecimentos matemáticos de forma articulada e integrada para a ancoragem de novos conhecimentos matemáticos. Observou-se também que a organização didática permite “economia de tempo”, no que diz respeito ao estudo destes conteúdos nesta etapa da vida escolar.
Identificação e estimação de ruído em redes DSL: uma abordagem baseada em inteligência computacional
Resumo:
Este trabalho propõe a utilização de técnicas de inteligência computacional objetivando identificar e estimar a potencia de ruídos em redes Digital Subscriber Line ou Linhas do Assinante Digital (DSL) em tempo real. Uma metodologia baseada no Knowledge Discovery in Databases ou Descobrimento de Conhecimento em Bases de Dados (KDD) para detecção e estimação de ruídos em tempo real, foi utilizada. KDD é aplicado para selecionar, pré-processar e transformar os dados antes da etapa de aplicação dos algoritmos na etapa de mineração de dados. Para identificação dos ruídos o algoritmo tradicional backpropagation baseado em Redes Neurais Artificiais (RNA) é aplicado objetivando identificar o tipo de ruído em predominância durante a coleta das informações do modem do usuário e da central. Enquanto, para estimação o algoritmo de regressão linear e o algoritmo híbrido composto por Fuzzy e regressão linear foram aplicados para estimar a potência em Watts de ruído crosstalk ou diafonia na rede. Os resultados alcançados demonstram que a utilização de algoritmos de inteligência computacional como a RNA são promissores para identificação de ruídos em redes DSL, e que algoritmos como de regressão linear e Fuzzy com regressão linear (FRL) são promissores para a estimação de ruídos em redes DSL.
Resumo:
Estudo da dimensão informacional do setor de saneamento básico, com o objetivo de analisar a qualidade da informação disponível em fontes de informação utilizadas no planejamento do setor. Para isso, foram analisadas as bases governamentais de informação, o Sistema Nacional de Informações sobre Saneamento 2009 (SNIS), a Pesquisa Nacional de Saneamento Básico 2008 (PNSB), a Pesquisa Nacional por Amostra de Domicílios 2009 (PNAD) e o Censo Demográfico 2010, no âmbito nacional, e o Serviço de Informação do Estado do Pará 2009 (SIE). A análise foi realizada por meio do Diagrama de Pareto, do Diagrama de causa e efeito de Ishikawa e dos atributos de informação de atualidade, abrangência, confiabilidade, precisão e pertinência, sendo, ainda, investigada a opinião de especialistas do setor. Nos 15 problemas evidenciados na redução da qualidade da informação em saneamento básico, cinco deles são considerados vitais e influenciam os demais problemas, sendo eles: a) falta de interação com outras áreas; b) periodicidade inadequada de disseminação das informações; c) falta de detalhamento da informação; d) forma de coleta inadequada; e) organização da informação inadequada. A partir da constatação das fragilidades na dimensão informacional em saneamento básico, foi analisada a informação utilizada em dois instrumentos de planejamento do setor, o Plano Nacional de Saneamento Básico (PLANSAB) e o Plano Plurianual 2008/2011, do estado do Pará (PPA 2008/2011). A conclusão desta tese é que, no momento, as informações disponibilizadas para o planejamento do setor são desatualizadas, incompletas, imprecisas, não pertinentes e não confiáveis. Com isso, foram recomendadas ações de inteligência estratégica para melhorar a qualidade da informação do setor, definindo-se o quê e onde coletar, como sistematizar, analisar, disseminar, avaliar e monitorar as informações, visando contribuir para o planejamento, definição de investimentos, prestação dos serviços, regulação, fiscalização e controle social, de acordo com as diretrizes da Política Nacional de Saneamento Básico, Lei 11.445/2007, que tem como um dos princípios fundamentais a universalização do acesso da população aos serviços de saneamento básico.
Resumo:
A monitorização ambulatorial do eletrocardiograma (ECG) permite seguir as atividades cotidianas do paciente durante períodos de 24 horas (ou ainda maiores) possibilitando o estudo de casos que pudessem ter episódios arrítmicos fatais. Entretanto, o maior desafio tecnológico que este tipo de monitorização enfrenta é a perda de informação pela presença de ruídos e artefatos quando o paciente se move. A análise do intervalo QT de despolarização e repolarização ventricular do eletrocardiograma superficial é uma técnica não invasiva com um grande valor para a diagnose e prognósticos de cardiopatias e neuropatias, assim como para a predição da morte cardíaca súbita. A análise do desvio padrão do intervalo QT proporciona informação sobre a dispersão (temporal ou espacial) da repolarização ventricular, entretanto a influencia do ruído provoca erros na detecção do final da onda T que são apreciáveis devido ao fato dos valores pequenos do desvio padrão do QT tanto para sujeitos patológicos e quanto para os sãos. O objetivo geral desta tese é melhorar os métodos de processamento do sinal de ECG ambulatorial usando inteligência computacional, especificamente os métodos relacionados com a detecção do final da onda T, e os de reconhecimento morfológico de batimentos que invalidam a análise da variabilidade do intervalo QT. É proposto e validado (em termos de exatidão e precisão) um novo método e algoritmo para estimar o final da onda T baseado no calculo de áreas de trapézios, empregando sinais da base de dados QT da Physionet. O desempenho do método proposto foi testado e comparado com um dos métodos mais usados para detectar o final da onda T: o método baseado no limiar na primeira derivada. O método de inteligência computacional sugerido combina a extração de características usando o método de análise de componentes principais não lineares e a rede neural de tipo perceptron multicamada. O método de áreas de trapézios teve um bom desempenho em condições ruidosas e não depende de nenhum limiar empírico, sendo adequado para situações com níveis de elevados de ruído de banda larga. O método de reconhecimento morfológico de batimentos foi avaliado com sinais ambulatoriais com e sem artefatos pertencentes a bases de dados de prestigio internacional, e mostrou um bom desempenho.
Resumo:
Dentre os principais desafios para o controle da malária no Brasil e no mundo, o advento da resistência do plasmódio, em especial do Plasmodium falciparum, se apresenta como o de maior relevância. A mefloquina é o fármaco de primeira linha para o tratamento da malária falciparum, e a disponibilidade de métodos sensíveis e baixo custo para monitorização das concentrações sanguíneas do fármaco e da carboximefloquina auxilia na otimização dos esquemas terapêuticos. Neste sentido, foi validada metodologia analítica, de acordo com parâmetros sugeridos pelos órgãos regulamentadores oficiais, para determinação de mefloquina e seu derivado carboxilado em amostra de sangue total adsorvida em papel de filtro. Foi empregado cromatografia líquida de alta eficiência após extração líquido-líquido dos analitos de interesse. A detecção foi realizada em λ = 222nm. Não foi observada interferência de outros antimaláricos comumente utilizados. O método foi linear em intervalo de concentração de 0,25 a 2,5 μg/mL, para mefloquina e seu derivado carboxilado. O limite de detecção foi de 35 ng/mL e do de quantificação de. 70 ng/mL, para mefloquina e carboximefloquina, respectivamente. A precisão intra ensaio média foi 31±4 % para mefloquina e de 21±5 % para carboximefloquina. A precisão inter ensaio média foi de e 38±4% para mefloquina e de 25±7% para carboximefloquina. A recuperação média para concentrações de mefloquina variando de 0,25 a 2,5 μg/mL foi de 83± 14%, e de carboximefloquina nas concentrações de 0,375 a 3740 μg/mL foi de 88±11%. O fármaco foi estável nas amostras adsorvidas em papel de filtro pelo período de um mês. O método foi robusto para pequenas variações de pH da fase móvel. Para avaliar a aplicabilidade do método foi realizada determinação dos analítos em amostras de sangue adsorvidas em papel de filtro de pacientes com malária falciparum. A concentração média de mefloquina foi de 0,861±0,723 μg/mL e de carboximefloquina de 0,472±0,086 μg/mL. Os parâmetros de validação da metodologia analítica seguem as recomendações propostas pelos órgãos oficiais sendo o método adequado para determinação de mefloquina e carboximefloquina em amostras de sangue total adsorvidas em papel de filtro.
Resumo:
Dentre as ferramentas para alcançar o tratamento ótimo para a malária, se destaca a monitorização das concentrações dos antimaláricos nos fluídos biológicos. Ao se considerar que o Coartem® é empregado na terapia de primeira linha para o tratamento da malária falciparum, justifica-se a realização deste estudo que objetivou validar metodologia analítica para determinação de lumefantrina em amostras de sangue total, adsorvidas em papel de filtro, e em plasma, por cromatografia líquida de alta eficiência (CLAE), em pacientes com malária por Plasmodium falciparum não complicada, empregando-se extração líquido-líquido. Foram realizados estudos de seletividade, linearidade, curva de calibração, limites de detecção e quantificação, recuperação, precisão intra e inter-ensaio, estabilidade e robustez. As amostras, para o estudo de aplicabilidade do método proposto, foram coletadas de pacientes com malária falciparum utilizando Coartem® (arteméter-20mg + lumefantrina- 120mg) no D3. As condições cromatográficas otimizadas foram: comprimento de onda de 335nm, fluxo 1,2mL/min. e fase móvel composta por acetonitrila-água (60:40, v/v) pH=3,5. A extração líquido-líquido demonstrou ser eficiente, pois a recuperação média foi de 101,3% para plasma e 84,3% para sangue total. O método foi seletivo e linear em intervalo de concentração de 160 a 1760ng/mL. Os limites de detecção e de quantificação foram 32ng/mL e 160ng/mL. O coeficiente de variação médio intra-ensaio, do plasma e sangue total, respectivamente, foram 10,88 e 8,38% e inter-ensaio de 13,21 e 11,78%. O analito demonstrou ser estável em sangue total adsorvido em papel de filtro por até 70 dias. Modificações no pH, fluxo e composição da fase móvel não alteraram significativamente a resolução do analito de interesse, sugerindo uma robustez adequada. O método demonstrou ser eficaz na quantificação de lumefantrina em amostras de sangue total de pacientes com malária falciparum bem como os parâmetros de validação estão de acordo com as recomendações dos órgãos regulamentadores no Brasil.
Resumo:
Devido ao auge do crescimento industrial na Região Norte e, em especial, o Pólo Industrial de Manaus (PIM), são necessários obter ferramentas matemáticas que facilitem ao especialista tomar decisões sobre a seleção e dimensionamento dos filtros harmônicos que proporcionam neutralizar os efeitos prejudiciais dos harmônicos gerados pelas cargas não lineares da indústria e alcançar conformidade com os padrões das normas de qualidade de energia correspondentes. Além disso, como os filtros harmônicos passivos têm a capacidade de gerar potência reativa à rede, estes meios são eficazes compensadores de potência reativa e, portanto, podem conseguir uma economia significativa no faturamento de energia elétrica consumida por essas instalações industriais. Esta tese tem como objetivo geral desenvolver um método matemático e uma ferramenta computacional para a seleção da configuração e parâmetros do projeto de um conjunto de filtros harmônicos passivos para sistemas elétricos industriais. Nesta ótica, o problema de otimização da compensação de harmônicos por meio de filtros passivos foi formulado como um problema multiobjetivo que considera tanto os objetivos da redução da distorção harmônica como da efetividade econômica do projeto considerando as características das tarifas brasileiras. Todavia, a formulação apresentada considera as restrições relevantes impostas pelas normas brasileiras e estrangeiras. A solução computacional para este problema foi conseguida, usando o algoritmo genético NSGA-II que determina um conjunto de soluções ótimas de Pareto (Fronteira) que permitem ao projetista escolher as soluções mais adequadas para o problema. Por conseguinte, a ferramenta computacional desenvolvida tem várias novidades como: não só calcula os parâmetros que caracterizam os filtros, como também seleciona o tipo de configuração e o número de ramos do filtro em cada barra candidata de acordo com um conjunto de configurações pré-estabelecidas; têm implementada duas normas para a avaliação das restrições de qualidade de energia (Prodist-Módulo 8 e IEEE 519-92) que podem ser selecionadas pelo usuário; determina soluções com bons indicadores de desempenho para vários cenários característicos e não característicos do sistema que permitem a representação das as variações diárias da carga; das variações dos parâmetros do sistema e dos filtros; avalia o custo das contas de energia numa rede elétrica industrial que tem diferentes condições de operação (cenários característicos); e avalia o efeito econômico de filtros de harmônicos como compensadores de potência reativa. Para desenvolver a ferramenta computacional adequada desta tese, foi empregado um modelo trifásico em coordenadas de fase para redes de energia elétrica industriais e de serviços onde foram feitos vários programas utilizando várias ferramentas computacionais adicionais. Estas ferramentas compreendem um programa de varredura de freqüência, um programa do fluxo de harmônicos por injeção de correntes e um programa de fluxo de potência à freqüência fundamental. Os resultados positivos desta tese, a partir da análise de vários exemplos práticos, mostram as vantagens do método desenvolvido.
Resumo:
Diversas atividades de planejamento e operação em sistemas de energia elétrica dependem do conhecimento antecipado e preciso da demanda de carga elétrica. Por este motivo, concessionárias de geração e distribuição de energia elétrica cada vez mais fazem uso de tecnologias de previsão de carga. Essas previsões podem ter um horizonte de curtíssimo, curto, médio ou longo prazo. Inúmeros métodos estatísticos vêm sendo utilizados para o problema de previsão. Todos estes métodos trabalham bem em condições normais, entretanto deixam a desejar em situações onde ocorrem mudanças inesperadas nos parâmetros do ambiente. Atualmente, técnicas baseadas em Inteligência Computacional vêm sendo apresentadas na literatura com resultados satisfatórios para o problema de previsão de carga. Considerando então a importância da previsão da carga elétrica para os sistemas de energia elétrica, neste trabalho, uma nova abordagem para o problema de previsão de carga via redes neurais Auto-Associativas e algoritmos genéticos é avaliada. Três modelos de previsão baseados em Inteligência Computacional são também apresentados tendo seus desempenhos avaliados e comparados com o sistema proposto. Com os resultados alcançados, pôde-se verificar que o modelo proposto se mostrou satisfatório para o problema de previsão, reforçando assim a aplicabilidade de metodologias de inteligência computacional para o problema de previsão de cargas.
Resumo:
Este estudo objetivou realizar uma analítica do poder no documento “Declaração e Programa de Ação sobre uma Cultura de Paz”, documento este legitimado, em 1999, por uma Assembleia Geral das Nações Unidas, fixando-se assim como norte prioritário das práticas da agência intitulada Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO). Foram utilizados como instrumentos de análise norteadores metodológicos vinculados a muitos operadores retirados do aporte teórico-metodológico produzido por Michel Foucault. Caminhou-se na direção de pensar, problematizar e produzir saber a partir deste movimento de desmontagem de documentos monumentos, tendo como eixo principal o conceito de “Cultura de Paz”. Este mote de cultura de paz possui sua existência atrelada à história das Nações Unidas e às suas agências, sendo produzido e sistematizado a partir de um conjunto de crenças, práticas e associações, que lhe possibilitaram ganhar visibilidade e poder, popularizando-o e tornando-o uma das produções discursivas mais significativas da contemporaneidade. Percorrendo necessariamente por diagonais entre as temáticas UNESCO, governamentalidade e produção de subjetividade, finalizamos esta dissertação com a apresentação do debate a respeito das práticas denominadas cultura de paz e seus efeitos no cotidiano em termos de saber e poder.
Resumo:
Um dos grandes entraves para o desenvolvimento econômico mundial é a crescente demanda por energia e consequente aumento da utilização de recursos naturais para provê-la. Países em desenvolvimento, como o Brasil, apresentaram progressivo consumo de energia per capita nos últimos anos. Embora a sua maioria seja proveniente de usinas hidrelétricas (fontes não poluidoras) sua construção causa grande impacto ambiental. De todo o percentual energético gerado, as edificações são responsáveis pelo consumo de aproximadamente 40% e este percentual tende a aumentar mediante o crescimento da construção civil no país. Diante da problemática, o combate ao desperdício, a racionalização e o uso sustentável da energia consumida pelas edificações estão diretamente ligados à redução do impacto ao meio ambiente, postergando a necessidade de aumento da matriz energética nacional. Neste contexto é criado o Regulamento Técnico da Qualidade do Nível de Eficiência Energética de Edifícios Comerciais, de Serviço e Públicos (RTQ-C). Este trabalho consiste em uma aplicação crítica do RTQ-C utilizando a metodologia prescritiva, tendo como enfoque aspectos relativos a sua aplicabilidade e avaliação de conforto térmico e lumínico, tendo como premissa que o alto desempenho energético da edificação só é plenamente alcançado quando são garantidas condições satisfatórias de conforto ambiental aos usuários. Para tanto foi necessária uma etapa minuciosa de levantamento de dados e medições “in loco” de temperatura do ar, temperatura radiante, iluminância e umidade relativa em dois ambientes (laboratório de conforto e sala de aula 2) do edifício do Centro de Excelência em Eficiência Energética da Amazônia - CEAMAZON, subsidiando a utilização da metodologia proposta por Fanger (PMV e PPD), e verificação dos níveis de iluminância propostos pela NBR 5413. Como resultado a edificação apresentou bom desempenho, mas a não observância dos prérequisitos a classificou com nível “C”. A avaliação de conforto indicou que aproximadamente 23% dos usuários não estavam em conforto térmico e que a ventilação natural poderá ser utilizada como estratégia bioclimática para adequação. As medições de iluminância indicaram que apenas a sala de aula 2 possuia potencial de aproveitamento de iluminação natural no período da medição. Concluiu-se que, apesar de sua importância, o RTQ-C deve passar ainda por um processo de adaptação por parte da sociedade e dos profissionais envolvidos na certificação energética de edificações e que durante esse período modificações poderão ser incorporadas contribuindo para torná-lo um instrumento efetivamente válido para a garantia da eficiência energética das edificações do país.
Resumo:
O modelo de formação de professores brasileiro refere-se à democratização do país e as mudanças sociais alavancadas na década de 1980, tendo como marco legal a Constituição de 1988 e as reformas educacionais e curriculares que a sucederam. Este trabalho constitui-se em uma análise arqueogenealógica foucaultiana das práticas discursivas arquitetadas sobre o curso de Pedagogia do Plano Nacional de Formação de Professores da Educação Básica (PARFOR) do Campus Universitário de Bragança – Universidade Federal do Pará (UFPA). Partimos do estudo arqueológico das emergências históricas da formação de professores para localizarmos e darmos visibilidade a arena da formação docente como contingência contemporânea advinda de forças capilares que objetivam e, ao mesmo tempo, subjetivam o professor em formação. Sustentamo-nos na hipótese de que habitam, nesse jogo de saber-poder, tramas de subjetivação corporificadas no currículo sob em práticas de governamentalização. Tais tramas, por sua vez, culminam na produção de documentos dentre os quais alguns foram escolhidos para compor a análise crítica desse trabalho. Desse modo, objetivamos problematizar a formação enquanto fabricação do aluno PARFOR-Pedagogia, com ênfase no currículo elaborado pelo Campus de Bragança/UFPA visando percebê-lo em sua articulação com determinadas urgências de formação e regulação de professores. A pesquisa teve como fonte documentos que instalam a política de formação de professores no país, encarando-os como monumentos com efeitos na objetivação e subjetivação dos sujeitos, e formação de professores como prática histórica e dispositivo estratégico de governamentalidade. Organizando-se os documentos em subarquivos, a análise foi conduzida pela problematização – arqueológica e genealógica de Michel Foucault, articulada aos dispositivos de Gilles Deleuze e às práticas históricas de Paul Veyne. Fincado como ação afirmativa e conectado ao rol das políticas educacionais contemporâneas, o PARFOR apesar de ter impulsionado a formação em serviço, os sujeitos que dele fazem parte são objetivados ainda por prescrições curriculares destacadamente disciplinares e generalistas, descritas paradoxalmente no Projeto Pedagógico do Curso de Pedagogia e nos Planos de Curso como estratégia interdisciplinar de formação de professores. Concomitante a isso, os sujeitos são subjetivados por um devir minoritário em função do modelo estrutural que a política foi arquitetada, exercendo seu poder por práticas de resistência. De acordo com as práticas analisadas nesse estudo, o PARFOR-Pedagogia do Campus de Bragança/UFPA é fabricado por tramas históricas de subjetivação, as quais se sustentam tanto na govenamentalidade quanto em estratégias biopolíticas acionadas por dispositivos curriculares que forjam e ao mesmo tempo são forjados pelos jogos de saber-poder-resistência.
Resumo:
Neste trabalho foi realizado um estudo descritivo da interação verbal livre e contínua entre um supervisor de terapia e um terapeuta iniciante, com o objetivo de identificar variáveis envolvidas no procedimento de supervisão adotado. O comportamento verbal dos participantes foi dividido em classes funcionais de respostas, denominadas "categorias de verbalizações", a partir das quais todas as respostas vocais puderam ser classificadas. Os resultados mostraram uma regularidade no comportamento do supervisor, enquanto os comportamentos do terapeuta e do cliente apresentaram alterações ao longo dos encontros de supervisões e das sessões terapêuticas. A análise da interação verbal livre em uma díade permitiu fazer inferências acerca de algumas variáveis de controle neste tipo de interação.