942 resultados para Prognóstico baseado em dados
Resumo:
Introdução e Objectivo: A presença de anticorpos antifosfolípidos (AAF) está associada a perdas embrionárias e fetais e a outras complicações obstétricas como pré-eclâmpsia, restrição de crescimento intra-uterino e parto pré-termo. Os doentes com lúpus eritematoso sistémico (LES) com frequência possuem AAF e síndroma antifosfolípidica (SAAF) secundária. O objectivo deste estudo é avaliar comparativamente o prognóstico da gravidez em mulheres com LES na presença e na ausência de AAF. Material e Métodos:Avaliação retrospectiva de 136 gestações em mulheres com diagnóstico prévio de LES cujo seguimento foi realizado na nossa instituição entre 1993 e 2007. As grávidas com e sem AAF foram consideradas separadamente. Dados relativos a idade materna, história obstétrica passada, actividade do LES no início da gravidez, existência de nefropatia, evolução da gravidez actual, idade gestacional no parto, tipo de parto, peso do recém-nascido e a existência de complicações hipertensivas na gravidez foram analisados. Resultados: 28% (38) das grávidas com LES apresentavam AAF. Deste grupo, 28,9% tinham história de perdas fetais do segundo e/ou terceiro trimestre, em oposição a 6,12% nas doentes sem AAF(p<0,05). A avaliação da actual gravidez demonstrou uma taxa de insucesso na gravidez significativamente mais elevada na população com AAF(8,1% versus 2,1%, p<0,05). Não se verificaram diferenças significativas no peso médio do recém-nascido e na taxa de restrição intra-uterina em função da presença de AAF. A idade gestacional media no parto foi de 36,9 semanas em ambos os grupos com uma taxa idêntica de parto pré-termo. O parto ocorreu por cesariana em 47% das doentes com AAF e em 44,1% das doentes sem AAF. Conclusões:Os antecedentes obstétricos de perda fetal do 2º e 3º trimestre e a probabilidade de aborto espontâneo são mais frequentes em grávidas com LES e AAF. Nos restantes parâmetros analisados não se verificaram diferenças significativas em função da presença de AAF.
Resumo:
Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.
Resumo:
RESUMO:As perturbações psicóticas são doenças mentais complexas sendo influenciadas na sua etiologia e prognóstico por factores biológicos e psicossociais. A interferência do ambiente familiar na evolução da doença espelha bem esta realidade. Quando em 1962 George Brown e colaboradores descobriram que ambientes familiares com elevada Emoção Expressa (EE) contribuíam para um aumento significativo do número de recaídas de pessoas com esquizofrenia (Brown et al., 1962), estava aberto o caminho para o desenvolvimento de novas intervenções familiares. A EE inclui cinco componentes: três componentes negativos, i.e. criticismo, hostilidade e envolvimento emocional excessivo; e dois componentes positivos, i.e. afectividade e apreço (Amaresha & Venkatasubramanian, 2012; Kuipers et al., 2002). No final dos anos 1970 surgiram os primeiros trabalhos na área das intervenções familiares nas psicoses (IFP). Dois grupos em países diferentes, no Reino Unido e nos Estados Unidos da América, desenvolveram quase em simultâneo duas abordagens distintas. Em Londres, a equipa liderada por Julian Leff desenhava uma intervenção combinando sessões unifamiliares em casa, incluindo o paciente, e sessões em grupo, apenas para os familiares (Leff et al., 1982). Por seu turno, em Pittsburgh, Gerard Hogarty e colaboradores desenvolviam uma abordagem que compreendia a dinamização de sessões educativas em grupo (Anderson e tal., 1980). Para designar este trabalho, Hogarty e colaboradores propuseram o termo “psicoeducação”. As IFP começaram a ser conhecidas por esta designação que se generalizou até aos dias de hoje. Neste contexto a educação era vista como a partilha de informação acerca da doença, dos profissionais para os familiares. Nas sessões os profissionais eram informados acerca das manifestações, etiologia, tratamento e evolução das psicoses, bem como de formas para lidar com as situações difíceis geradas pela doença, e.g. risco de recaída. Os trabalhos pioneiros das IFP foram rapidamente sucedidos pelo desenvolvimento de novos modelos e a proliferação de estudos de eficácia. Para além dos modelos de Leff e Hogarty, os modelos IFP que ficaram mais conhecidos foram: (1) a Terapia Familiar-Comportamental, desenvolvida por Ian Falloon e colaboradores (Falloon et al., 1984); e (2) a Terapia Multifamiliar em Grupo, desenvolvida por William McFarlane e colaboradores (McFarlane, 1991). O incremento de estudos de eficácia contribuiu rapidamente para as primeiras meta-análises. Estas, por sua vez, resultaram na inclusão das IFP nas normas de orientação clínica mais relevantes para o tratamento das psicoses, nomeadamente da esquizofrenia (e.g. PORT Recomendations e NICE Guidelines). No geral os estudos apontavam para uma diminuição do risco de recaída na esquizofrenia na ordem dos 20 a 50% em dois anos (Pitschel-Walz et al., 2001). No final dos anos 1990 as IFP atingiam assim o apogeu. Contudo, a sua aplicação prática tem ficado aquém do esperado e as barreiras à implementação das IFP passaram a ser o foco das atenções (Gonçalves-Pereira et al., 2006; Leff, 2000). Simultaneamente, alguns autores começaram a levantar a questão da incerteza sobre quais os elementos-chave da intervenção. O conhecimento sobre o processo das IFP era reduzido e começaram a surgir as primeiras publicações sobre o assunto (Lam, 1991). Em 1997 foi dinamizada uma reunião de consenso entre os três investigadores mais relevantes do momento, Falloon, Leff e McFarlane. Deste encontro promovido pela World Schizophrenia Fellowship for Schizophrenia and Allied Disorders surgiu um documento estabelecendo dois objectivos e quinze princípios para as IFP (WFSAD, 1997). Não obstante os contributos que foram feitos, continua a existir uma grande falta de evidência empírica acerca do processo das IFP e dos seus elementos-chave (Cohen et al., 2008; Dixon et al., 2001; Lam, 1991; Leff, 2000; McFarlane et al., 2003). Também em Portugal, apesar da reflexão teórica nesta área e do registo de ensaios de efectividade de grupos para familiares – estudo FAPS (Gonçalves-Pereira, 2010), os componentes fundamentais das IFP nunca foram analisados directamente. Assim, o projecto de investigação descrito nesta tese teve como objectivo identificar os elementos-chave das IFP com base em investigação qualitativa. Para tal, conduzimos três estudos que nos permitiriam alcançar dados empíricos sobre o tema. O primeiro estudo (descrito no Capítulo 2) consistiu na realização de uma revisão sistemática da literatura científica acerca das variáveis relacionadas com o processo das IFP. A nossa pesquisa esteve focada essencialmente em estudos qualitativos. Contudo, decidimos não restringir demasiado os critérios de inclusão tendo em conta as dificuldades em pesquisar sobre investigação qualitativa nas bases de dados electrónicas e também devido ao facto de ser possível obter informação sobre as variáveis relacionadas com o processo a partir de estudos quantitativos. O método para este estudo foi baseado no PRISMA Statement para revisões sistemáticas da literatura. Depois de definirmos os critérios de inclusão e exclusão, iniciámos várias pesquisas nas bases de dados electrónicas utilizando termos booleanos, truncações e marcadores de campo. Pesquisámos na PubMed/MEDLINE, Web of Science e nas bases de dados incluídas na EBSCO Host (Academic Search Complete; Education Research Complete; Education Source; ERIC; and PsycINFO). As pesquisas geraram 733 resultados. Depois de serem removidos os duplicados, 663 registos foram analisados e foram seleccionados 38 artigos em texto integral. No final, 22 artigos foram incluídos na síntese qualitativa tendo sido agrupados em quatro categorias: (1) estudos examinando de forma abrangente o processo; (2) estudos acerca da opinião dos participantes sobre a intervenção que receberam; (3) estudos comparativos que individualizaram variáveis sobre o processo; e (4) estudos acerca de variáveis mediadoras. Os resultados evidenciaram um considerável hiato na investigação em torno do processo das IFP. Identificámos apenas um estudo que abordava de forma abrangente o processo das IFP (Bloch, et al., 1995). Este artigo descrevia uma análise qualitativa de um estudo experimental de uma IFP. Contudo, as suas conclusões gerais revelaramse pobres e apenas se podia extrair com certeza de que as IFP devem ser baseadas nas necessidades dos participantes e que os terapeutas devem assumir diferentes papéis ao longo da intervenção. Da revisão foi possível perceber que os factores terapêuticos comuns como a aliança terapêutica, empatia, apreço e a “aceitação incondicional”, podiam ser eles próprios um elemento isolado para a eficácia das IFP. Outros estudos enfatizaram a educação como elemento chave da intervenção (e.g. Levy-Frank et al., 2011), ao passo que outros ainda colocavam a ênfase no treino de estratégias para lidar com a doença i.e. coping (e.g. Tarrier et al., 1988). Com base nesta diversidade de resultados e tendo em conta algumas propostas prévias de peritos (McFarlane, 1991; Liberman & Liberman, 2003), desenvolvemos a hipótese de concebermos as IFP como um processo por etapas, de acordo com as necessidades dos familiares. No primeiro nível estariam as estratégias relacionadas com os factores terapêuticos comuns e o suporte emocional,no segundo nível a educação acerca da doença, e num nível mais avançado, o foco seria o treino de estratégias para lidar com a doença e diminuir a EE. Neste estudo concluímos que nem todas as famílias iriam precisar de IFP complexas e que nesses casos seria possível obter resultados favoráveis com IFP pouco intensas. O Estudo 2 (descrito no Capítulo 3) consistiu numa análise qualitativa dos registos clínicos do primeiro ensaio clínico da IFP de Leff e colaboradores (Leff et al., 1982). Este ensaio clínico culminou numa das evidências mais substanciais alguma vez alcançada com uma IFP (Leff et al., 1982; Leff et al., 1985; Pitschel-Walz et al., 2001). Este estudo teve como objectivo modular a EE recorrendo a um modelo misto com que compreendia sessões familiares em grupo e algumas sessões unifamiliares em casa, incluindo o paciente. Os resultados mostraram uma diminuição das recaídas em nove meses de 50% no grupo de controlo para 8% no grupo experimental. Os registos analisados neste estudo datam do período de 1977 a 1982 e podem ser considerados como material histórico de alto valor, que surpreendentemente nunca tinha sido analisado. Eram compostos por descrições pormenorizadas dos terapeutas, incluindo excertos em discurso directo e estavam descritos segundo uma estrutura, contendo também os comentários dos terapeutas. No total os registos representavam 85 sessões em grupo para familiares durante os cinco anos do ensaio clínico e 25 sessões unifamiliares em casa incluindo o paciente. Para a análise qualitativa decidimos utilizar um método de análise dedutivo, com uma abordagem mecânica de codificação dos registos em categorias previamente definidas. Tomámos esta decisão com base na extensão apreciável dos registos e porque tínhamos disponível informação válida acerca das categorias que iríamos encontrar nos mesmos, nomeadamente a informação contida no manual da intervenção, publicado sob a forma de livro, e nos resultados da 140 nossa revisão sistemática da literatura (Estudo 1). Deste modo, foi construída uma grelha com a estrutura de codificação, que serviu de base para a análise, envolvendo 15 categorias. De modo a cumprir com critérios de validade e fidelidade rigorosos, optámos por executar uma dupla codificação independente. Deste modo dois observadores leram e codificaram independentemente os registos. As discrepâncias na codificação foram revistas até se obter um consenso. No caso de não ser possível chegar a acordo, um terceiro observador, mais experiente nos aspectos técnicos das IFP, tomaria a decisão sobre a codificação. A análise foi executada com recurso ao programa informático NVivo® versão 10 (QSR International). O número de vezes que cada estratégia foi utilizada foi contabilizado, especificando a sessão e o participante. Os dados foram depois exportados para uma base de dados e analisados recorrendo ao programa informático de análise estatística SPSS® versão 20 (IBM Corp.). Foram realizadas explorações estatísticas para descrever os dados e obter informação sobre possíveis relações entre as variáveis. De modo a perceber a significância das observações, recorremos a testes de hipóteses, utilizando as equações de estimação generalizadas. Os resultados da análise revelaram que as estratégias terapêuticas mais utilizadas na intervenção em grupo foram: (1) a criação de momentos para ouvir as necessidades dos participantes e para a partilha de preocupações entre eles – representando 21% de todas as estratégias utilizadas; (2) treino e aconselhamento acerca de formas para lidar com os aspectos mais difíceis da doença – 15%; (3) criar condições para que os participantes recebam suporte emocional – 12%; (4) lidar com o envolvimento emocional excessivo 10%; e (5) o reenquadramento das atribuições dos familiares acerca dos comportamentos dos pacientes – 10%. Nas sessões unifamiliares em casa, as estratégias mais utilizadas foram: (1) lidar com o envolvimento emocional excessivo – representando 33% de todas as estratégias utilizadas nas sessões unifamiliares em casa; (2) treino e aconselhamento acerca de formas para lidar com os aspectos desafiadores da doença – 22%; e (3) o reenquadramento das atribuições dos familiares acerca dos comportamentos dos pacientes, juntamente com o lidar com a zanga, o conflito e a rejeição – ambas com 10%. A análise longitudinal mostrou que a criação de momentos para ouvir as necessidades dos familiares tende a acontecer invariavelmente ao longo do programa. Sempre que isso acontece, são geralmente utilizadas estratégias para ajudar os familiares a lidarem melhor com os aspectos difíceis da doença e estratégias para fomentar o suporte emocional. Por sua vez, foi possível perceber que o trabalho para diminuir o envolvimento emocional excessivo pode acontecer logo nas primeiras sessões. O reenquadramento e o lidar com a zanga/ conflito/ rejeição tendem a acontecer a partir da fase intermédia até às últimas sessões. A análise das diferenças entre os familiares com baixa EE e os de elevada EE, mostrou que os familiares com elevada EE tendem a tornar-se o foco da intervenção grupal. Por sua vez, os familiares com baixa EE recebem mais estratégias relacionadas com aliança terapêutica, comparativamente com os familiares com elevada EE. São de realçar os dados relativamente às estratégias educativas. Foi possível observar que estas tendem a acontecer mais no início dos grupos, não estando associadas a outras estratégias. Contudo é de notar a sua baixa utilização, a rondar apenas os 5%.O Estudo 3 (descrito no Capítulo 4) surgiu como uma forma de completar a análise do Estudo 2, permitindo uma visão mais narrativa do processo e focando, adicionalmente, as mudanças que ocorrem nos participantes. Com base nos mesmos registos utilizados no Estudo 2, codificámos de forma secundária os registos em duas categorias i.e. marcadores de mudança e marcadores emocionais. Os marcadores de mudança foram cotados sempre que um participante exibia comportamentos ou pensamentos diferentes dos anteriores no sentido de uma eventual redução na EE. Os marcadores emocionais correspondiam à expressão intensa de sentimentos por parte dos participantes nas sessões e que estariam relacionados com assuntos-chave para essas pessoas. Os excertos que continham a informação destes marcadores foram posteriormente revistos e articulados com notas e comentários não estruturados que recolhemos durante a codificação do Estudo 2. Com base nesta informação os registos foram revistos e, utilizando um método indutivo, elaborámos uma narrativa acerca da intervenção. Os resultados da narrativa foram discutidos com dados de que dispúnhamos, referentes a reuniões com os terapeutas envolvidos na intervenção em análise (Elizabeth Kuipers, Ruth Berkowitz e Julian Leff; Londres, Novembro de 2011). Reconhecemos que, pela sua natureza não estruturada e indutiva, a avaliação narrativa está mais sujeita ao viés de observador. Não obstante, os resultados deste Estudo 3 parecem revestir uma consistência elevada. O mais relevante foi a evidência de que na intervenção em análise ocorreram mudanças emocionais significativas nos familiares ao longo das sessões em grupo. Numa fase inicial os familiares tenderam a expressar sentimentos de zanga. Seguidamente, os terapeutas iam nterrompendo o discurso de reminiscências, direccionavam o discurso para as suas preocupações actuais e os familiares pareciam ficar mais calmos. Contudo, à medida que os 143 participantes “mergulhavam” nos problemas com que se confrontavam na altura, os sentimentos de zanga davam lugar a sentimentos de perda e angústia. Nessa altura os terapeutas enfatizavam o suporte emocional e introduziam progressivamente técnicas de reenquadramento para ajudar os participantes a avaliar de forma mais positiva as situações. Este trabalho dava lugar a sentimentos mais positivos, como a aceitação, apreço e a sensação de controlo. O Estudo 3 evidenciou também o que designamos como o “Efeito de Passagem de Testemunho”. Este efeito aconteceu sempre que um membro novo se juntava ao grupo. Os membros antigos, que estavam a ser o alvo das atenções e naturalmente a receber mais intervenção, mudam de papel e passam eles próprios a focar as suas atenções nos membros mais recentes do grupo, contribuindo para a dinâmica do grupo com as mesmas intervenções que os ajudaram previamente. Por exemplo, alguns membros antigos que eram altamente críticos nos grupos em relação aos seus familiares passavam a fazer comentários de reenquadramento dirigidos para os novos membros. Por fim, o Capítulo 5 resume as conclusões gerais deste projecto de investigação. Os estudos apresentados permitiram um incremento no conhecimento acerca do processo das IFP. Anteriormente esta informação era baseada sobretudo na opinião de peritos. Com este projecto aumentámos o nível de evidência ao apresentar estudos com base em dados empíricos. A análise qualitativa do Estudo 2 permitiu pela primeira vez, tanto quanto é do nosso conhecimento, perceber de forma aprofundada o processo subjacente a uma IFP (no contexto de um ensaio clínico que se revelou como um dos mais eficazes de sempre). Identificámos as estratégias mais utilizadas, as relações entre elas e a sua diferente aplicação entre familiares com baixa EE e familiares com alta EE.O Estudo 3 completou a informação incluindo aspectos relacionados com as mudanças individuais durante o programa. No final foi possível perceber que as IFP devem ser um programa por etapas. Nos Estudo 2 e 3, evidenciámos que numa fase inicial, os terapeutas dedicaram especial atenção para que os familiares tivessem espaço para partilharem as suas necessidades, disponibilizando logo de seguida estratégias para promover o suporte emocional e estratégias de coping. Num nível subsequente do programa, o trabalho terapêutico avançou para estratégias mais direccionadas para regular a EE, mantendo sempre as estratégias iniciais ao longo das sessões. Assim apesar de a educação ter sido um componente importante na IFP em análise, houve outras estratégias mais relevantes no processo. A evidência gerada pelos Estudos 2 e 3 baseou-se em registos históricos de elevado valor, sendo que os constructos subjacentes na época, nomeadamente a EE, continuam a ser a base da investigação e prática das IFP a nível mundial em diferentes culturas (Butzlaff & Hooley, 1998). Concluímos que as IFP são um processo complexo com diferentes níveis de intervenção, podendo gerar mudanças emocionais nos participantes durante as sessões. No futuro será importante replicar o nosso trabalho (nomeadamente o Estudo 2) com outras abordagens de IFP, de modo a obter informação acerca do seu processo. Esse conhecimento será fundamental para uma possível evolução do paradigma das IFP. ----------- ABSTRACT: Background: Psychotic-spectrum disorders are complex biopsychosocial conditions and family issues are important determinants of prognosis. The discovery of the influence of expressed emotion on the course of schizophrenia paved the road to the development of family interventions aiming to lower the “emotional temperature” in the family. These treatment approaches became widely recognised. Effectiveness studies showed remarkable and strong results in relapse prevention and these interventions were generalised to other psychotic disorders besides schizophrenia. Family interventions for psychosis (FIP) prospered and were included in the most important treatment guidelines. However, there was little knowledge about the process of FIP. Different FIP approaches all led to similar outcomes. This intriguing fact caught the attention of authors and attempts were made to identify the key-elements of FIP. Notwithstanding, these efforts were mainly based on experts’ opinions and the conclusions were scanty. Therefore, the knowledge about the process of FIP remains unclear. Aims: To find out which are the key-elements of FIP based on empirical data. Methods: Qualitative research. Three studies were conducted to explore the process of FIP and isolate variables that allowed the identification of the key-elements of FIP. Study 1 consisted of a systematic literature review of studies evaluating process-related variables of FIP. Study 2 subjected the intervention records of a formerly conducted effective clinical trial of FIP to a qualitative analysis. Records were analysed into categories and the emerging data were explored using descriptive statistics and generalised estimating equations. Study 3 consisted of a narrative evaluation using an inductive qualitative approach, examining the same data of Study 2. Emotional markers and markers of change were identified in the records and the content of these excerpts was synthesised and discussed. Results: On Study 1, searches revealed 733 results and 22 papers were included in the qualitative synthesis. We found a single study comprehensively exploring the process of FIP. All other studies focused on particular aspects of the process-related variables. The key-elements of FIP seemed to be the so-called “common therapeutic factors”, followed by education about the illness and coping skills training. Other elements were also identified, as the majority of studies evidenced a multiple array of components. Study 2,revealed as the most used strategies in the intervention programme we analysed: the addressing of needs; sharing; coping skills and advice; emotional support; dealing with overinvolvement; and reframing relatives’ views about patients’ behaviours. Patterns of the usefulness of the strategies throughout the intervention programme were identified and differences between high expressed emotion and low expressed emotion relatives were elucidated. Study 3 accumulated evidence that relatives experience different emotions during group sessions, ranging from anger to grief, and later on, to acceptance and positive feelings. Discussion: Study 1 suggested a stepped model of intervention according to the needs of the families. It also revealed a gap in qualitative research of FIP. Study 2 demonstrated that therapists of the trial under analysis often created opportunities for relatives to express and share their concerns throughout the entire treatment programme. The use of this strategy was immediately followed by coping skills enhancement, advice and emotional support. Strategies aiming to deal with overinvolvement may also occur early in the treatment programme. Reframing was the next most used strategy, followed by dealing with anger, conflict and rejection. This middle and later work seems to operate in lowering criticism and hostility, while the former seems to diminish overinvolvement. Single-family sessions may be used to augment the work developed in the relatives groups. Study 3 revealed a missing part of Study 2. It demonstrated that the process of FIP promotes emotional changes in the relatives and therapists must be sensitive to the emotional pathway of each participant in the group.
Resumo:
Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.
Resumo:
Este trabalho apresenta um método para detectar falhas no funcionamento de máquinas rotativas baseado em alterações no padrão de vibração do sistema e no diagnóstico da condição de operação, por Lógica Fuzzy. As modificações ocorridas são analisadas e servem como parâmetros para predizer falhas incipientes bem como a evolução destas na condição de operação, possibilitando tarefas de manutenção preditiva. Utiliza-se uma estrutura mecânica denominada de Sistema Rotativo (Figura 1), apropriada para as simulações das falhas. Faz-se a aquisição de dados de vibração da máquina usando-se um acelerômetro em chip biaxial de baixa potência. As saídas são lidas diretamente por um contador microprocessador não requerendo um conversor A/D. Um sistema de desenvolvimento para processamento digital de sinais, baseado no microprocessador TMS320C25, o Psi25, é empregado na aquisição dos sinais de vibração (*.dat), do Sistema Rotativo. Os arquivos *.dat são processados através da ferramenta matemática computacional Matlab 5 e do programa SPTOOL. Estabelece-se o padrão de vibração, denominado assinatura espectral do Sistema Rotativo (Figura 2) Os dados são analisados pelo sistema especialista Fuzzy, devidamente calibrado para o processo em questão. São considerados, como parâmetros para a diferenciação e tomada de decisão no diagnóstico do estado de funcionamento pelo sistema especialista, a freqüência de rotação do eixo-volante e as amplitudes de vibração inerentes a cada situação de avaria. As falhas inseridas neste trabalho são desbalanceamentos no eixovolante (Figura 1), através da inserção de elementos desbalanceadores. A relação de massa entre o volante e o menor elemento desbalanceador é de 1:10000. Tomando-se como alusão o conhecimento de especialistas no que se refere a situações normais de funcionamento e conseqüências danosas, utilizam-se elementos de diferentes massas para inserir falhas e diagnosticar o estado de funcionamento pelo sistema fuzzy, que apresenta o diagnóstico de formas qualitativa: normal; falha incipiente; manutenção e perigo e quantitativa, sendo desta maneira possível a detecção e o acompanhamento da evolução da falha.
Resumo:
Este trabalho apresenta a proposta de uma arquitetura e o modelo de um Agente de Intercâmbio Eletrônico de Dados, Agente EDI, cuja função é, permitir a troca de dados estruturados entre Sistemas de Informações Distribuídos através da Internet. A estratégia de interação dos agentes possibilita uma maneira alternativa de tratar a recuperação, o armazenamento e a distribuição de dados, permitindo assim, o desenvolvimento de um modelo de Sistema de Informações baseado em Web, igualmente proposto neste trabalho. É apresentado também o desenvolvimento do Agente EDI proposto. O qual poderá ser utilizado por entidades que necessitam disponibilizar ou recuperar dados estruturados via Web, como por exemplo: informações de produtos, listas de preços, dados cadastrais, etc. A relevância deste trabalho está no fato de apresentar uma tecnologia simples e acessível, capaz de ser implementada sem a necessidade de altos investimentos e capaz de facilitar a implementação de Sistemas Distribuídos via Internet.
Resumo:
Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.
Resumo:
Extração de dados é o processo utilizado para obter e estruturar informações disponibilizaadas em documentos semi-estruturados (ex.: páginas da Web). A importâmncia da extrtação de dados vem do fato que, uma vez extraídos, os dados podem ser armazenados e manipulados em uma forma estruturada. Dentre as abordagens existentes para extração de dados, existe a abordagem de extração baseada em ontologias. Nesta abordagem, ontologias são preciamente criadas para descrever um domínio de interesse, gerando um modelo conceitual enriquecido com informações necessárias para extração de dados das fontes semi-estruturadas. A ontologia é utilizada como guia ara um programa (¨parser¨) que executa a extração de dados dos documentos ou páginas fornecidos como enetrada. Oprocesso de criação da ontologia não é uma tarefa trtivial e requer um cuidado trabalho ee análise dos documentos ou páginas fontes dos dados. Este trabalho é feito manualmente por usuários especialistas no domínio de interesse da ontologia. Entretanto, em algumas situações os dados que se desejam extrair estão modelados em bancos de dados relacionais. Neste caso, o modelo realcional do banco de dados por ser utilizado para constrtução do modelo conceitual na ontologia. As instâncias dos dados armazenados neste mesmo banco podem ajudar a gerar as informações sobre conteúdo e formato dos dados a serem extraídos. Estas informações sobre conteúdo e formato de dados, na ontologia, são representadas por expressões regulares e estão inseridas nos chamados "data frames". O objetivo deste trabalho é apresentar um método para criação semi-automática de ontologias de extração a partir das informações em um banco de dados já existente. O processo é baseado na engenharia reversa do modelo relacional para o modelo conceitual da ontologia combinada com a análise das instâncias dos dados para geração das expressões regulares nos "data frames".
Resumo:
Este trabalho apresenta uma arquitetura para Ambientes de Desenvolvimento de Software (ADS). Esta arquitetura é baseada em produtos comerciais de prateleira (COTS), principalmente em um Sistema de Gerência de Workflow – SGW (Microsoft Exchange 2000 Server – E2K) - e tem como plataforma de funcionamento a Internet, integrando também algumas ferramentas que fazem parte do grande conjunto de aplicativos que é utilizado no processo de desenvolvimento de software. O desenvolvimento de um protótipo (WOSDIE – WOrkflow-based Software Development Integrated Environment) baseado na arquitetura apresentada é descrito em detalhes, mostrando as etapas de construção, funções implementadas e dispositivos necessários para a integração de um SGW, ferramentas de desenvolvimento, banco de dados (WSS – Web Storage System) e outros, para a construção de um ADS. O processo de software aplicado no WOSDIE foi extraído do RUP (Rational Unified Process – Processo Unificado Rational). Este processo foi modelado na ferramenta Workflow Designer, que permite a modelagem dos processos de workflow dentro do E2K. A ativação de ferramentas a partir de um navegador Web e o armazenamento dos artefatos produzidos em um projeto de software também são abordados. O E2K faz o monitoramento dos eventos que ocorrem dentro do ambiente WOSDIE, definindo, a partir das condições modeladas no Workflow Designer, quais atividades devem ser iniciadas após o término de alguma atividade anterior e quem é o responsável pela execução destas novas atividades (assinalamento de atividades). A arquitetura proposta e o protótipo WOSDIE são avaliados segundo alguns critérios retirados de vários trabalhos. Estas avaliações mostram em mais detalhes as características da arquitetura proposta e proporcionam uma descrição das vantagens e problemas associados ao WOSDIE.
Resumo:
O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].
Resumo:
A colaboração visual, recurso que permite a troca de informações de forma remota, é construída em cima de uma combinação de diversas ferramentas, na qual estão incluídos: videoconferência, “streaming de vídeo”, compartilhamento e transferência de informações e imagens (colaboração em cima de dados) entre outros. Estas soluções, vêm utilizando cada vez mais, o protocolo IP e a Internet para o transporte dos sinais. Com este objetivo, o ITU-T lançou a recomendação H.323, que definiu um padrão confiável, que permite a troca de sinais multimídia em redes de pacotes sem qualidade de serviço. Entretanto, com o passar dos anos percebeu-se que aplicações que manipulam voz e vídeo, precisam que as redes de pacotes tenham capacidade de prover características semelhantes às oferecidas por redes de comutação por circuito, para o transporte dos sinais multimídia. Neste sentido, redes IP podem utilizar mecanismos de qualidade de serviço como o DiffServ, para prover tratamento adequado dos sinais de áudio e vídeo e assim, aumentar a qualidade percebida pelos usuários. As aplicações de colaboração visual são notáveis candidatas a utilização de mecanismos de QoS da rede. Neste caso é desejável que estas aplicações estejam aptas a especificar o nível de qualidade de serviço desejado e requisitem este nível de serviço para a rede. Neste contexto, o trabalho apresenta um modelo para o desenvolvimento de um terminal H.323 capaz de requisitar qualidade de serviço para a rede IP, visando aumentar a qualidade percebida pelo usuário em relação aos sinais de mídia. Neste terminal foi incluída uma entidade chamada de EPQoSE, responsável pela sinalização de QoS em benefício do terminal. Além disso, o modelo proposto neste texto apresenta um sistema de gerenciamento baseado em políticas, responsável por controlar as requisições de QoS dos terminais H.323, dentro de um domínio. Como o terminal precisa se comunicar com estas entidades, apresentamos no trabalho, a maneira como ele faz isso e definimos um conjunto de funções que devem ser implementadas pelo QoSM no terminal.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.
Resumo:
In the last years, there has been a strong tendency of transferring typical business management concepts and practices to the public administration, such as: efficiency, efficacy, effectiveness, economy, operational excellence, results and transparency. The limited offer of resources, as well as the growing demand for accountability, justifies that movement. In order to put the aforementioned concepts into operation, the public administration uses some mechanisms, among them cost management. This dissertation focuses on the use of cost management systems, based on an activity-based costing (ABC) method, by Brazilian public entities. The present analysis is conducted from the ABC system implemented in the Brazilian Central Bank (BACEN) - an indirect public administration autarchy - the main goal of this study is to examine its outcomes since the implementation of the system. The investigation went through three main questions: if the system is being used, if it is fulfilling the objectives sought and, finally, if it is providing the expected benefits. Semi-structured interviews were made with members of the institution; and, according to the assumptions and tools tailored for this study, the collected data were analysed qualitatively. Evidences indicate that information, when not manipulated in a systematic way, hinder not only the incorporation of the cost system to the routine, but also the achievement of the goals and benefits aimed with such implementation.
Resumo:
O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.