914 resultados para Modelo afim de estrutura a termo
Resumo:
Dissertação para obtenção do Grau de Doutor em Ambiente
Resumo:
RESUMO:As perturbações psicóticas são doenças mentais complexas sendo influenciadas na sua etiologia e prognóstico por factores biológicos e psicossociais. A interferência do ambiente familiar na evolução da doença espelha bem esta realidade. Quando em 1962 George Brown e colaboradores descobriram que ambientes familiares com elevada Emoção Expressa (EE) contribuíam para um aumento significativo do número de recaídas de pessoas com esquizofrenia (Brown et al., 1962), estava aberto o caminho para o desenvolvimento de novas intervenções familiares. A EE inclui cinco componentes: três componentes negativos, i.e. criticismo, hostilidade e envolvimento emocional excessivo; e dois componentes positivos, i.e. afectividade e apreço (Amaresha & Venkatasubramanian, 2012; Kuipers et al., 2002). No final dos anos 1970 surgiram os primeiros trabalhos na área das intervenções familiares nas psicoses (IFP). Dois grupos em países diferentes, no Reino Unido e nos Estados Unidos da América, desenvolveram quase em simultâneo duas abordagens distintas. Em Londres, a equipa liderada por Julian Leff desenhava uma intervenção combinando sessões unifamiliares em casa, incluindo o paciente, e sessões em grupo, apenas para os familiares (Leff et al., 1982). Por seu turno, em Pittsburgh, Gerard Hogarty e colaboradores desenvolviam uma abordagem que compreendia a dinamização de sessões educativas em grupo (Anderson e tal., 1980). Para designar este trabalho, Hogarty e colaboradores propuseram o termo “psicoeducação”. As IFP começaram a ser conhecidas por esta designação que se generalizou até aos dias de hoje. Neste contexto a educação era vista como a partilha de informação acerca da doença, dos profissionais para os familiares. Nas sessões os profissionais eram informados acerca das manifestações, etiologia, tratamento e evolução das psicoses, bem como de formas para lidar com as situações difíceis geradas pela doença, e.g. risco de recaída. Os trabalhos pioneiros das IFP foram rapidamente sucedidos pelo desenvolvimento de novos modelos e a proliferação de estudos de eficácia. Para além dos modelos de Leff e Hogarty, os modelos IFP que ficaram mais conhecidos foram: (1) a Terapia Familiar-Comportamental, desenvolvida por Ian Falloon e colaboradores (Falloon et al., 1984); e (2) a Terapia Multifamiliar em Grupo, desenvolvida por William McFarlane e colaboradores (McFarlane, 1991). O incremento de estudos de eficácia contribuiu rapidamente para as primeiras meta-análises. Estas, por sua vez, resultaram na inclusão das IFP nas normas de orientação clínica mais relevantes para o tratamento das psicoses, nomeadamente da esquizofrenia (e.g. PORT Recomendations e NICE Guidelines). No geral os estudos apontavam para uma diminuição do risco de recaída na esquizofrenia na ordem dos 20 a 50% em dois anos (Pitschel-Walz et al., 2001). No final dos anos 1990 as IFP atingiam assim o apogeu. Contudo, a sua aplicação prática tem ficado aquém do esperado e as barreiras à implementação das IFP passaram a ser o foco das atenções (Gonçalves-Pereira et al., 2006; Leff, 2000). Simultaneamente, alguns autores começaram a levantar a questão da incerteza sobre quais os elementos-chave da intervenção. O conhecimento sobre o processo das IFP era reduzido e começaram a surgir as primeiras publicações sobre o assunto (Lam, 1991). Em 1997 foi dinamizada uma reunião de consenso entre os três investigadores mais relevantes do momento, Falloon, Leff e McFarlane. Deste encontro promovido pela World Schizophrenia Fellowship for Schizophrenia and Allied Disorders surgiu um documento estabelecendo dois objectivos e quinze princípios para as IFP (WFSAD, 1997). Não obstante os contributos que foram feitos, continua a existir uma grande falta de evidência empírica acerca do processo das IFP e dos seus elementos-chave (Cohen et al., 2008; Dixon et al., 2001; Lam, 1991; Leff, 2000; McFarlane et al., 2003). Também em Portugal, apesar da reflexão teórica nesta área e do registo de ensaios de efectividade de grupos para familiares – estudo FAPS (Gonçalves-Pereira, 2010), os componentes fundamentais das IFP nunca foram analisados directamente. Assim, o projecto de investigação descrito nesta tese teve como objectivo identificar os elementos-chave das IFP com base em investigação qualitativa. Para tal, conduzimos três estudos que nos permitiriam alcançar dados empíricos sobre o tema. O primeiro estudo (descrito no Capítulo 2) consistiu na realização de uma revisão sistemática da literatura científica acerca das variáveis relacionadas com o processo das IFP. A nossa pesquisa esteve focada essencialmente em estudos qualitativos. Contudo, decidimos não restringir demasiado os critérios de inclusão tendo em conta as dificuldades em pesquisar sobre investigação qualitativa nas bases de dados electrónicas e também devido ao facto de ser possível obter informação sobre as variáveis relacionadas com o processo a partir de estudos quantitativos. O método para este estudo foi baseado no PRISMA Statement para revisões sistemáticas da literatura. Depois de definirmos os critérios de inclusão e exclusão, iniciámos várias pesquisas nas bases de dados electrónicas utilizando termos booleanos, truncações e marcadores de campo. Pesquisámos na PubMed/MEDLINE, Web of Science e nas bases de dados incluídas na EBSCO Host (Academic Search Complete; Education Research Complete; Education Source; ERIC; and PsycINFO). As pesquisas geraram 733 resultados. Depois de serem removidos os duplicados, 663 registos foram analisados e foram seleccionados 38 artigos em texto integral. No final, 22 artigos foram incluídos na síntese qualitativa tendo sido agrupados em quatro categorias: (1) estudos examinando de forma abrangente o processo; (2) estudos acerca da opinião dos participantes sobre a intervenção que receberam; (3) estudos comparativos que individualizaram variáveis sobre o processo; e (4) estudos acerca de variáveis mediadoras. Os resultados evidenciaram um considerável hiato na investigação em torno do processo das IFP. Identificámos apenas um estudo que abordava de forma abrangente o processo das IFP (Bloch, et al., 1995). Este artigo descrevia uma análise qualitativa de um estudo experimental de uma IFP. Contudo, as suas conclusões gerais revelaramse pobres e apenas se podia extrair com certeza de que as IFP devem ser baseadas nas necessidades dos participantes e que os terapeutas devem assumir diferentes papéis ao longo da intervenção. Da revisão foi possível perceber que os factores terapêuticos comuns como a aliança terapêutica, empatia, apreço e a “aceitação incondicional”, podiam ser eles próprios um elemento isolado para a eficácia das IFP. Outros estudos enfatizaram a educação como elemento chave da intervenção (e.g. Levy-Frank et al., 2011), ao passo que outros ainda colocavam a ênfase no treino de estratégias para lidar com a doença i.e. coping (e.g. Tarrier et al., 1988). Com base nesta diversidade de resultados e tendo em conta algumas propostas prévias de peritos (McFarlane, 1991; Liberman & Liberman, 2003), desenvolvemos a hipótese de concebermos as IFP como um processo por etapas, de acordo com as necessidades dos familiares. No primeiro nível estariam as estratégias relacionadas com os factores terapêuticos comuns e o suporte emocional,no segundo nível a educação acerca da doença, e num nível mais avançado, o foco seria o treino de estratégias para lidar com a doença e diminuir a EE. Neste estudo concluímos que nem todas as famílias iriam precisar de IFP complexas e que nesses casos seria possível obter resultados favoráveis com IFP pouco intensas. O Estudo 2 (descrito no Capítulo 3) consistiu numa análise qualitativa dos registos clínicos do primeiro ensaio clínico da IFP de Leff e colaboradores (Leff et al., 1982). Este ensaio clínico culminou numa das evidências mais substanciais alguma vez alcançada com uma IFP (Leff et al., 1982; Leff et al., 1985; Pitschel-Walz et al., 2001). Este estudo teve como objectivo modular a EE recorrendo a um modelo misto com que compreendia sessões familiares em grupo e algumas sessões unifamiliares em casa, incluindo o paciente. Os resultados mostraram uma diminuição das recaídas em nove meses de 50% no grupo de controlo para 8% no grupo experimental. Os registos analisados neste estudo datam do período de 1977 a 1982 e podem ser considerados como material histórico de alto valor, que surpreendentemente nunca tinha sido analisado. Eram compostos por descrições pormenorizadas dos terapeutas, incluindo excertos em discurso directo e estavam descritos segundo uma estrutura, contendo também os comentários dos terapeutas. No total os registos representavam 85 sessões em grupo para familiares durante os cinco anos do ensaio clínico e 25 sessões unifamiliares em casa incluindo o paciente. Para a análise qualitativa decidimos utilizar um método de análise dedutivo, com uma abordagem mecânica de codificação dos registos em categorias previamente definidas. Tomámos esta decisão com base na extensão apreciável dos registos e porque tínhamos disponível informação válida acerca das categorias que iríamos encontrar nos mesmos, nomeadamente a informação contida no manual da intervenção, publicado sob a forma de livro, e nos resultados da 140 nossa revisão sistemática da literatura (Estudo 1). Deste modo, foi construída uma grelha com a estrutura de codificação, que serviu de base para a análise, envolvendo 15 categorias. De modo a cumprir com critérios de validade e fidelidade rigorosos, optámos por executar uma dupla codificação independente. Deste modo dois observadores leram e codificaram independentemente os registos. As discrepâncias na codificação foram revistas até se obter um consenso. No caso de não ser possível chegar a acordo, um terceiro observador, mais experiente nos aspectos técnicos das IFP, tomaria a decisão sobre a codificação. A análise foi executada com recurso ao programa informático NVivo® versão 10 (QSR International). O número de vezes que cada estratégia foi utilizada foi contabilizado, especificando a sessão e o participante. Os dados foram depois exportados para uma base de dados e analisados recorrendo ao programa informático de análise estatística SPSS® versão 20 (IBM Corp.). Foram realizadas explorações estatísticas para descrever os dados e obter informação sobre possíveis relações entre as variáveis. De modo a perceber a significância das observações, recorremos a testes de hipóteses, utilizando as equações de estimação generalizadas. Os resultados da análise revelaram que as estratégias terapêuticas mais utilizadas na intervenção em grupo foram: (1) a criação de momentos para ouvir as necessidades dos participantes e para a partilha de preocupações entre eles – representando 21% de todas as estratégias utilizadas; (2) treino e aconselhamento acerca de formas para lidar com os aspectos mais difíceis da doença – 15%; (3) criar condições para que os participantes recebam suporte emocional – 12%; (4) lidar com o envolvimento emocional excessivo 10%; e (5) o reenquadramento das atribuições dos familiares acerca dos comportamentos dos pacientes – 10%. Nas sessões unifamiliares em casa, as estratégias mais utilizadas foram: (1) lidar com o envolvimento emocional excessivo – representando 33% de todas as estratégias utilizadas nas sessões unifamiliares em casa; (2) treino e aconselhamento acerca de formas para lidar com os aspectos desafiadores da doença – 22%; e (3) o reenquadramento das atribuições dos familiares acerca dos comportamentos dos pacientes, juntamente com o lidar com a zanga, o conflito e a rejeição – ambas com 10%. A análise longitudinal mostrou que a criação de momentos para ouvir as necessidades dos familiares tende a acontecer invariavelmente ao longo do programa. Sempre que isso acontece, são geralmente utilizadas estratégias para ajudar os familiares a lidarem melhor com os aspectos difíceis da doença e estratégias para fomentar o suporte emocional. Por sua vez, foi possível perceber que o trabalho para diminuir o envolvimento emocional excessivo pode acontecer logo nas primeiras sessões. O reenquadramento e o lidar com a zanga/ conflito/ rejeição tendem a acontecer a partir da fase intermédia até às últimas sessões. A análise das diferenças entre os familiares com baixa EE e os de elevada EE, mostrou que os familiares com elevada EE tendem a tornar-se o foco da intervenção grupal. Por sua vez, os familiares com baixa EE recebem mais estratégias relacionadas com aliança terapêutica, comparativamente com os familiares com elevada EE. São de realçar os dados relativamente às estratégias educativas. Foi possível observar que estas tendem a acontecer mais no início dos grupos, não estando associadas a outras estratégias. Contudo é de notar a sua baixa utilização, a rondar apenas os 5%.O Estudo 3 (descrito no Capítulo 4) surgiu como uma forma de completar a análise do Estudo 2, permitindo uma visão mais narrativa do processo e focando, adicionalmente, as mudanças que ocorrem nos participantes. Com base nos mesmos registos utilizados no Estudo 2, codificámos de forma secundária os registos em duas categorias i.e. marcadores de mudança e marcadores emocionais. Os marcadores de mudança foram cotados sempre que um participante exibia comportamentos ou pensamentos diferentes dos anteriores no sentido de uma eventual redução na EE. Os marcadores emocionais correspondiam à expressão intensa de sentimentos por parte dos participantes nas sessões e que estariam relacionados com assuntos-chave para essas pessoas. Os excertos que continham a informação destes marcadores foram posteriormente revistos e articulados com notas e comentários não estruturados que recolhemos durante a codificação do Estudo 2. Com base nesta informação os registos foram revistos e, utilizando um método indutivo, elaborámos uma narrativa acerca da intervenção. Os resultados da narrativa foram discutidos com dados de que dispúnhamos, referentes a reuniões com os terapeutas envolvidos na intervenção em análise (Elizabeth Kuipers, Ruth Berkowitz e Julian Leff; Londres, Novembro de 2011). Reconhecemos que, pela sua natureza não estruturada e indutiva, a avaliação narrativa está mais sujeita ao viés de observador. Não obstante, os resultados deste Estudo 3 parecem revestir uma consistência elevada. O mais relevante foi a evidência de que na intervenção em análise ocorreram mudanças emocionais significativas nos familiares ao longo das sessões em grupo. Numa fase inicial os familiares tenderam a expressar sentimentos de zanga. Seguidamente, os terapeutas iam nterrompendo o discurso de reminiscências, direccionavam o discurso para as suas preocupações actuais e os familiares pareciam ficar mais calmos. Contudo, à medida que os 143 participantes “mergulhavam” nos problemas com que se confrontavam na altura, os sentimentos de zanga davam lugar a sentimentos de perda e angústia. Nessa altura os terapeutas enfatizavam o suporte emocional e introduziam progressivamente técnicas de reenquadramento para ajudar os participantes a avaliar de forma mais positiva as situações. Este trabalho dava lugar a sentimentos mais positivos, como a aceitação, apreço e a sensação de controlo. O Estudo 3 evidenciou também o que designamos como o “Efeito de Passagem de Testemunho”. Este efeito aconteceu sempre que um membro novo se juntava ao grupo. Os membros antigos, que estavam a ser o alvo das atenções e naturalmente a receber mais intervenção, mudam de papel e passam eles próprios a focar as suas atenções nos membros mais recentes do grupo, contribuindo para a dinâmica do grupo com as mesmas intervenções que os ajudaram previamente. Por exemplo, alguns membros antigos que eram altamente críticos nos grupos em relação aos seus familiares passavam a fazer comentários de reenquadramento dirigidos para os novos membros. Por fim, o Capítulo 5 resume as conclusões gerais deste projecto de investigação. Os estudos apresentados permitiram um incremento no conhecimento acerca do processo das IFP. Anteriormente esta informação era baseada sobretudo na opinião de peritos. Com este projecto aumentámos o nível de evidência ao apresentar estudos com base em dados empíricos. A análise qualitativa do Estudo 2 permitiu pela primeira vez, tanto quanto é do nosso conhecimento, perceber de forma aprofundada o processo subjacente a uma IFP (no contexto de um ensaio clínico que se revelou como um dos mais eficazes de sempre). Identificámos as estratégias mais utilizadas, as relações entre elas e a sua diferente aplicação entre familiares com baixa EE e familiares com alta EE.O Estudo 3 completou a informação incluindo aspectos relacionados com as mudanças individuais durante o programa. No final foi possível perceber que as IFP devem ser um programa por etapas. Nos Estudo 2 e 3, evidenciámos que numa fase inicial, os terapeutas dedicaram especial atenção para que os familiares tivessem espaço para partilharem as suas necessidades, disponibilizando logo de seguida estratégias para promover o suporte emocional e estratégias de coping. Num nível subsequente do programa, o trabalho terapêutico avançou para estratégias mais direccionadas para regular a EE, mantendo sempre as estratégias iniciais ao longo das sessões. Assim apesar de a educação ter sido um componente importante na IFP em análise, houve outras estratégias mais relevantes no processo. A evidência gerada pelos Estudos 2 e 3 baseou-se em registos históricos de elevado valor, sendo que os constructos subjacentes na época, nomeadamente a EE, continuam a ser a base da investigação e prática das IFP a nível mundial em diferentes culturas (Butzlaff & Hooley, 1998). Concluímos que as IFP são um processo complexo com diferentes níveis de intervenção, podendo gerar mudanças emocionais nos participantes durante as sessões. No futuro será importante replicar o nosso trabalho (nomeadamente o Estudo 2) com outras abordagens de IFP, de modo a obter informação acerca do seu processo. Esse conhecimento será fundamental para uma possível evolução do paradigma das IFP. ----------- ABSTRACT: Background: Psychotic-spectrum disorders are complex biopsychosocial conditions and family issues are important determinants of prognosis. The discovery of the influence of expressed emotion on the course of schizophrenia paved the road to the development of family interventions aiming to lower the “emotional temperature” in the family. These treatment approaches became widely recognised. Effectiveness studies showed remarkable and strong results in relapse prevention and these interventions were generalised to other psychotic disorders besides schizophrenia. Family interventions for psychosis (FIP) prospered and were included in the most important treatment guidelines. However, there was little knowledge about the process of FIP. Different FIP approaches all led to similar outcomes. This intriguing fact caught the attention of authors and attempts were made to identify the key-elements of FIP. Notwithstanding, these efforts were mainly based on experts’ opinions and the conclusions were scanty. Therefore, the knowledge about the process of FIP remains unclear. Aims: To find out which are the key-elements of FIP based on empirical data. Methods: Qualitative research. Three studies were conducted to explore the process of FIP and isolate variables that allowed the identification of the key-elements of FIP. Study 1 consisted of a systematic literature review of studies evaluating process-related variables of FIP. Study 2 subjected the intervention records of a formerly conducted effective clinical trial of FIP to a qualitative analysis. Records were analysed into categories and the emerging data were explored using descriptive statistics and generalised estimating equations. Study 3 consisted of a narrative evaluation using an inductive qualitative approach, examining the same data of Study 2. Emotional markers and markers of change were identified in the records and the content of these excerpts was synthesised and discussed. Results: On Study 1, searches revealed 733 results and 22 papers were included in the qualitative synthesis. We found a single study comprehensively exploring the process of FIP. All other studies focused on particular aspects of the process-related variables. The key-elements of FIP seemed to be the so-called “common therapeutic factors”, followed by education about the illness and coping skills training. Other elements were also identified, as the majority of studies evidenced a multiple array of components. Study 2,revealed as the most used strategies in the intervention programme we analysed: the addressing of needs; sharing; coping skills and advice; emotional support; dealing with overinvolvement; and reframing relatives’ views about patients’ behaviours. Patterns of the usefulness of the strategies throughout the intervention programme were identified and differences between high expressed emotion and low expressed emotion relatives were elucidated. Study 3 accumulated evidence that relatives experience different emotions during group sessions, ranging from anger to grief, and later on, to acceptance and positive feelings. Discussion: Study 1 suggested a stepped model of intervention according to the needs of the families. It also revealed a gap in qualitative research of FIP. Study 2 demonstrated that therapists of the trial under analysis often created opportunities for relatives to express and share their concerns throughout the entire treatment programme. The use of this strategy was immediately followed by coping skills enhancement, advice and emotional support. Strategies aiming to deal with overinvolvement may also occur early in the treatment programme. Reframing was the next most used strategy, followed by dealing with anger, conflict and rejection. This middle and later work seems to operate in lowering criticism and hostility, while the former seems to diminish overinvolvement. Single-family sessions may be used to augment the work developed in the relatives groups. Study 3 revealed a missing part of Study 2. It demonstrated that the process of FIP promotes emotional changes in the relatives and therapists must be sensitive to the emotional pathway of each participant in the group.
Resumo:
A Internet das Coisas tal como o Big Data e a análise dos dados são dos temas mais discutidos ao querermos observar ou prever as tendências do mercado para as próximas décadas, como o volume económico, financeiro e social, pelo que será relevante perceber a importância destes temas na atualidade. Nesta dissertação será descrita a origem da Internet das Coisas, a sua definição (por vezes confundida com o termo Machine to Machine, redes interligadas de máquinas controladas e monitorizadas remotamente e que possibilitam a troca de dados (Bahga e Madisetti 2014)), o seu ecossistema que envolve a tecnologia, software, dispositivos, aplicações, a infra-estrutura envolvente, e ainda os aspetos relacionados com a segurança, privacidade e modelos de negócios da Internet das Coisas. Pretende-se igualmente explicar cada um dos “Vs” associados ao Big Data: Velocidade, Volume, Variedade e Veracidade, a importância da Business Inteligence e do Data Mining, destacando-se algumas técnicas utilizadas de modo a transformar o volume dos dados em conhecimento para as empresas. Um dos objetivos deste trabalho é a análise das áreas de IoT, modelos de negócio e as implicações do Big Data e da análise de dados como elementos chave para a dinamização do negócio de uma empresa nesta área. O mercado da Internet of Things tem vindo a ganhar dimensão, fruto da Internet e da tecnologia. Devido à importância destes dois recursos e á falta de estudos em Portugal neste campo, com esta dissertação, sustentada na metodologia do “Estudo do Caso”, pretende-se dar a conhecer a experiência portuguesa no mercado da Internet das Coisas. Visa-se assim perceber quais os mecanismos utilizados para trabalhar os dados, a metodologia, sua importância, que consequências trazem para o modelo de negócio e quais as decisões tomadas com base nesses mesmos dados. Este estudo tem ainda como objetivo incentivar empresas portuguesas que estejam neste mercado ou que nele pretendam aceder, a adoptarem estratégias, mecanismos e ferramentas concretas no que diz respeito ao Big Data e análise dos dados.
Resumo:
O galgamento oceânico é um fenómeno associado à interação de ondas com estruturas marítimas. Nesta dissertação estudou-se o galgamento em estruturas marítimas verticais através da aplicação do modelo numérico AMAZON, que é um modelo bidimensional, baseado na resolução das equações não lineares de águas pouco profundas. Para validar a sua aplicação a estruturas marítimas verticais impermeáveis, os resultados de caudal médio galgado obtidos com o modelo AMAZON foram comparados com os resultados de ensaios em modelo físico bidimensional realizados anteriormente e disponíveis na base de dados do projeto europeu CLASH. Os resultados foram ainda comparados com os das fórmulas empíricas e semi-empíricas de Van der Meer & Bruce de 2014, de Goda de 2008 e de Hedges & Reis de 2015. Antes da sua validação, o modelo foi calibrado utilizando um dos ensaios do CLASH. Para tal, realizou-se uma análise de sensibilidade a alguns parâmetros do modelo, concretamente da dimensão mínima da malha, da escala de aplicação do AMAZOM (à escala reduzida ou à do protótipo), da forma de modelação da parede vertical, já que, dado este modelo ser integrado na vertical, não é possível considerar paredes verticais sem utilizar um artifício de cálculo, dos valores de alguns dos parâmetros de entrada do modelo (profundidade mínima molhada e a profundidade mínima de fricção) e da dimensão do domínio de cálculo. Os resultados da calibração do AMAZON mostram que, por causa da precisão do modelo para os menores caudais médios de galgamento, se deve aplicar o modelo à escala do protótipo. Para estruturas verticais, a aproximação que o modelo faz, por defeito, para a secção vertical da estrutura através de um talude fictício a 10:1 apresenta melhores resultados que a utilização de um talude a 20:1. Contudo, ambos requerem a adoção de uma dimensão da malha bastante reduzida nesta zona e na sua vizinhança (0.03 m). No caso em estudo, os dois parâmetros de entrada do modelo não têm impacto significativo nos resultados, ao contrário do domínio de cálculo que, tal como recomendado na literatura de referência, se deve iniciar (fronteira de entrada) a aproximadamente um comprimento de onda do pé da estrutura. Os resultados obtidos mostram que, em geral, o AMAZON subestima o valor medido do caudal médio galgado com erros relativos variáveis entre -91% e -49%; apenas para um caso o modelo sobrestima o caudal médio, com um erro relativo de 43%. Quando comparado com as formulações empíricas e semi-empíricas, a fórmula de Van der Meer & Bruce apresenta melhores aproximações aos caudais médios medidos que constam na base de dados do CLASH, seguida da fórmula de Goda e dos resultados do modelo AMAZON, embora estes dois últimos apresentem valores bastante próximos. Assim, uma vez que o modelo está em constante desenvolvimento, espera-se que no futuro seja uma ferramenta mais poderosa. Contudo, enquanto não se fizerem melhorias no modelo e/ou não se estender a outros ensaios a análise feita no âmbito desta dissertação, os resultados sugerem que não há vantagem na sua utilização face às formulações empíricas e semi-empíricas disponíveis, tendo também em conta o significativo tempo computacional exigido para executar o AMAZON com a dimensão da malha escolhida.
Resumo:
A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.
Resumo:
O presente estudo incidiu na observação sistemática duma equipa profissional em contexto hospitalar com vista a identificar as dinâmicas relacionais intra-grupo, e em particular as relações entre chefe e colaboradores. Da população que constitui o serviço de imagiologia do hospital estudado, foi seleccionada , por conveniência , uma amostra de 11 técnicos de radiologia. Como instrumentos de recolha de dados, utilizámos a escala de comportamentos SYMLOG, com o objectivo de classificar a frequência com que os vários tipos de comportamentos são demonstrados ou executados pelos indivíduos que constituem o grupo observado , e a escala LMX-7 afim de percepcionar de que forma os resultados obtidos poderão estar implicados na dimensão de Orientação para a Tarefa, observado no Diagrama de Campo do Grupo. Os resultados obtidos sugerem que o grupo de técnicos de radiologia é moderadamente coeso, observando-se contudo algumas tensões na relação com o chefe formal. Ainda neste contexto, foi possível identificar no grupo em estudo, os principais tipos de liderança exercida pelos chamados 'líderes emergentes'
Resumo:
Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS
Resumo:
A atuação do enfermeiro em Saúde Coletiva deve estar voltada para o planejamento da assistência de enfermagem, num modelo capaz de, enfocar o ser humano como um todo, como a Sistematização da Assistência de Enfermagem (SAE), caracterizada pelas etapas: histórico, diagnósticos, prescrição e evolução de enfermagem. O objetivo deste estudo foi identificar a estrutura de organização da SAE nos registros de prontuários dos usuários de risco atendidos em Saúde Coletiva, no Programa de Saúde da Família numa Unidade Básica de Saúde de um município da Região Metropolitana de São Paulo. O método quantitativo, exploratório, descritivo com coleta de dados secundários foi utilizado para compreender a realidade estudada. A coleta de dados foi realizada em uma unidade de saúde da família da região metropolitana de São Paulo. Os registros realizados pelos enfermeiros em prontuários,utilizados como amostra deste estudo foram 116 prontuários de usuários acamados considerados de risco como, hipertensos e diabéticos. Os resultados foram divididos em três partes, nas quais houve a caracterização dos usuários, estrutura de registros de enfermagem no prontuário, e especificamente os elementos da SAE. Os resultados demonstraram que a maioria dos registros relativos ao histórico, diagnóstico, prescrição e evolução de enfermagem não estiveram presentes nos prontuários de pacientes de risco atendidos. No entanto, a anotação de enfermagem estava presente em sua maioria. A conclusão é que a estrutura de organização da SAE nos registros de enfermagem apresentava-se muito deficitária e que deve ser revista e melhorada, considerando-se ser o papel da enfermeira.
Resumo:
Tese apresentada ao Programa de Pós-graduação em Administração da Universidade Municipal de São Caetano do Sul
Resumo:
Os Sistemas de Informação Geográfica (SIG) são construídos, especificamente, para armazenar, analisar e manipular dados geográficos, ou seja, dados que representam objetos e fenômenos do mundo real, cuja localização em relação à superfície da Terra seja considerada. A interoperabilidade desses sistemas, que constitui-se na capacidade de compartilhar e trocar informações e processos entre ambientes computacionais heterogêneos, se faz necessária, pois, devido ao elevado custo de aquisição dos dados geográficos, as comunidades de informação precisam compartilhar dados de fontes existentes, sem a necessidade de fazer conversões. Porém, pela complexidade e incompatibilidades de representação, de estrutura e de semântica das informações geográficas, a maioria dos softwares de SIG, hoje, não são interoperáveis. Existe também, além do problema da não interoperabilidade, uma crescente preocupação com relação à qualidade e à integridade espacial dos dados geográficos. Contudo, alguns modelos conceituais de dados geográficos e os softwares de SIG não oferecem, ainda, os meios adequados para representar e garantir a integridade espacial das informações. As restrições de integridade definidas durante a fase de projeto conceitual, normalmente, são implementadas durante o projeto físico, seja de forma implícita ou explícita, podendo ser incorporadas diretamente no modelo de implementação do SIG, de forma que o usuário da aplicação apenas mencione a regra e o sistema a implemente e a garanta automaticamente.Este trabalho de pesquisa propõe uma extensão ao Modelo Abstrato OpenGIS, modelo este que deve ser um padrão de interoperabilidade de software para SIG. A extensão proposta incorpora ao mesmo um subconjunto de tipos de restrição espacial, buscando com isso oferecer melhor suporte às regras da realidade geográfica expressáveis na modelagem conceitual do sistema.
Resumo:
As técnicas que formam o campo da Descoberta de Conhecimento em Bases de Dados (DCBD) surgiram devido à necessidade de se tratar grandes volumes de dados. O processo completo de DCBD envolve um elevado grau de subjetividade e de trabalho não totalmente automatizado. Podemos dizer que a fase mais automatizada é a de Mineração de Dados (MD). Uma importante técnica para extração de conhecimentosa partir de dados é a Programação Lógica Indutiva (PLI), que se aplica a tarefas de classificação, induzindo conhecimento na forma da lógica de primeira ordem. A PLI tem demonstrado as vantagens de seu aparato de aprendizado em relação a outras abordagens, como por exemplo, aquelas baseadas em aprendizado proposicional Os seus algorítmos de aprendizado apresentam alta expressividade, porém sofrem com a grande complexidade de seus processos, principalmente o teste de corbertura das variáveis. Por outro lado, as Redes Neurais Artificiais (RNs) introduzem um ótimo desempenho devido à sua natureza paralela. às RNs é que geralmente são "caixas pretas", o que torna difícil a obtenção de um interpretação razoável da estrutura geral da rede na forma de construções lógicas de fácil compreensão Várias abordagens híbridas simbólico-conexionistas (por exemplo, o MNC MAC 890 , KBANN SHA 94 , TOW 94 e o sistema INSS OSO 98 têm sido apresentadas para lidar com este problema, permitindo o aprendizado de conhecimento simbólico através d euma RN. Entretanto, estas abordagens ainda lidam com representações atributo-valor. Neste trabalho é apresentado um modelo que combina a expressividade obtida pela PLI com o desempenho de uma rede neural: A FOLONET (First Order Neural Network).
Resumo:
o presente trabalho tem por objetivo desenvolver um código computacional destinado à simulaçáo numérica tridimensional e de escoamentos compressíveis hipersônicos em especial para analisar o processo de reentrada de veículos espaciais na atmosfera terrestre. Devido ás temperaturas elevadas encontradas neste tipo de escoamento, efeitos de altas temperaturas sáo incluídos, como excitação vibracional das moléculas e reações químícas. Utiliza-se o modelo de 2 temperaturas (translacional e vibracional);5 espécíes (N2, O2, NO, N, O) e 17 reações químicas de Park [1986 para o modelamento do fenômeno termo-químico. Introduz-se uma formulação baseada no método dos elementos finitos, através do esquema de Taylor-Calerkin, para a discretização do tempo e do espaço e para a solução do sistema de equações. Alguns exemplos e aplicações de problemas hipersônicos bi e tridimensionais, difusivos e não difusivos, são apresentados, incluindo comparações entre os resultados obtidos no presente trabalho e na literatura.
Resumo:
Este trabalho defende de que a idéia que critérios lingüísticos e pragmáticos contribuem para o reconhecimento da especificidade do termo jurídico. Desse modo, parte do princípio que a identificação de uma terminologia está vinculada ao reconhecimento da natureza e dos propósitos daqueles que a utilizam em uma dada área de conhecimento, o que, na área jurídica, se torna evidente na expressão da normatividade da lei. A pesquisa utiliza como referencial teórico as concepções de base da Teoria Comunicativa da Terminologia, da Teoria dos Atos de Fala, aportes da Teoria Semiótica do Texto no âmbito jurídico, bem como fundamentos gerais da ciência jurídica. O corpus de estudo, a partir do qual se demonstra a validade da idéia defendida, é formado por textos legislativos. A Constituição Brasileira de 1988 foi escolhida como campo preferencial de pesquisa e é examinado como objeto da comunicação que se estabelece entre o destinador e o destinatário no âmbito do universo sócio-cultural da área jurídica. Descrevem-se os mecanismos que tecem a rede modal que estrutura esse tipo de texto, considerando-se que a enunciação da norma constitucional configura um ato de fala jurídico. Esse ato de fala é analisado na manifestação de normas de três categorias: programáticas, de atribuição de poder e competência e de conduta, destacando-se o caráter performativo dos verbos que expressam tais normas. Após a identificação do padrão morfossintático e semântico que caracteriza a sua estrutura frasal, analisam-se os elementos que vinculam o verbo, seu sujeito e complementos aos propósitos da área temática, com destaque para sua implicação pragmática. Conforme a pesquisa demonstra, tais propósitos imprimem o caráter de imperatividade àquilo que é comunicado, conferindo especificidade às unidades lexicais que integram a estrutura frasal dos verbos focalizados. Conclui-se que o verbo performativo é fator primordial no processo de atualização da especificidade dos termos na linguagem jurídica, bem como se demonstra que alguns dos verbos analisados se constituem em genuínos candidatos a termo jurídico. Finalizando a investigação, são indicados parâmetros para a marcação de elementos lingüísticos, tanto morfossintáticos como semânticos e de natureza pragmática, para o processamento informatizado da linguagem usada no Direito.
Resumo:
A análise da iteração solo-estrutura em fundações é um importante campo de pesquisa que ainda tem um grande progresso a ser feito. No presente trabalho foi desenvolvido um programa computacional para a análise da interação solo-estrutura de fundações de concreto armado. Este tema abrange duas áreas da engenharia civil: estruturas e geotecnia. O método dos elementos finitos foi usado no trabalho na seqüência para resolver o problema considerando estado plano de defonnação e comportamento elastoplásti.co dos materiais estudados (solo, concreto e aço). A linguagem de programação MATLAB foi usada em toda esta pesquisa como alternativa ao FORTRAN. O MATLAB foi escolhido uma vez que é uma linguagem de programação que permite facilmente construir uma interfàce de pré e pósprocessamento amigável. Os passos para a solução completa do problema foram os seguintes: Primeiramente um programa foi desenvolvido considerando o comportamento elastoplástico com critérios de plastificação e ruptura específicos para o concreto e solo. Soluções analíticas fechadas foram usadas para checar a precisão do programa. O segundo passo foi a introdução do reforço de aço no concreto por meio de um modelo para armaduras. Logo após, um modelo de fissuras para o concreto 1racionado foi in1roduzido no programa. Na seqüência o programa de pré e pós-processamento foi desenvolvido para gerar a malha de elementos finitos (pré-processamento), distribuição tensões e deformações, mapa de fissuras, etc (pósprocessamento). Finalmente, os parâme1ros constitutivos do solo, concreto e aço foram calibrados e várias situações reais de interação do solo-concreto de fundações de concreto armado foram simuladas. Nesta dissertação são encontrados resultados para as pressões de contato sapata-solo. Diferentes diagramas de tensões de interfàce foram obtidos em função rigidez relativa do elemento estrutural de concreto armado-solo. Na análise mnnérica, rigidez relativa desempenhou uma relevante função no comportamento mecânico do elemento estrutural de concreto armado (sapata) e da base de assentamento (solo), uma vez ruptura em ambos os casos esteve diretamente relacionada a esta grandeza. São encon1rados, em função da rigidez relativa, resultados indicativos dos modos de falha da fundação, excessiva plastificação do solo em fundações com rigidez relativa alta, e a plastificação armaduras, esmagamento do concreto, formação de fissuras, bielas e confinamento concreto para fundações de rigidez relativa baixa. Na análise numérica, obteve-se resultados importantes com relação ao projeto de fundações. Estes resultados foram cOnITontadoscom normas, destacando-se as discordâncias com relação às recomendações da nonna brasileira Projeto e Execução de Fundações" NBR-6122 (1996) para os diagramas de tensões interface sapata-solo usados no dimensionamento de fundações de concreto armado.
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.