15 resultados para Algoritmos de minimização
Resumo:
As evidências históricas das catástrofes naturais e suas consequências, ilustram a influência dos fenómenos naturais sobre a atividade humana e a crescente exposição ao risco por parte das sociedades contemporâneas. Consequentemente, os desastres naturais devem ser encarados como o produto de uma complexa relação, na qual se combinam ameaças naturais e ações humanas geradoras de vulnerabilidade, decorrentes do quadro económico, sociocultural, biofísico e político-administrativo da sociedade. Torna-se portanto fundamental apoiar as comunidades e indivíduos a tornarem-se menos vulneráveis e a reforçar a sua capacidade de antecipar, resistir, enfrentar e recuperar de desastres naturais, o que implica gerir o impacto dos desastres, mas sobretudo incidir na redução do risco. A gestão de riscos e desastres envolve a conjugação de perspetivas de um conjunto de atores, que a comunicação do risco, enquanto processo dinâmico de diálogo entre os diversos intervenientes (indivíduos, comunidades e instituições) deve ser capaz de mobilizar, tanto para a prevenção e preparação, como para a resposta à crise e posterior reconstrução. Nesse sentido, centramos a atenção deste trabalho no papel que a comunicação do risco pode desempenhar, enquanto processo primordial na difusão de conhecimentos, na modificação e reforço de condutas, valores e doutrinas sociais, assim como no estímulo a processos de mudança social que contribuam para a prevenção e minimização de desastres e para o desenvolvimento de uma cultura de segurança. Este objetivo é ainda mais premente em espaços insulares por norma frágeis, económica e ambientalmente, como é o caso da Região Autónoma da Madeira. A fragilidade deste território, historicamente marcado por processos de perigosidade, cuja magnitude e frequência constituem recorrentemente uma ameaça ao bem-estar e qualidade de vida das populações, salienta a necessidade de estratégias de comunicação do risco que auxiliem os cidadãos, comunidades e instituições a antecipar, resistir e recuperar de eventos naturais adversos. As investigações realizadas permitiram identificar os principais fenómenos e processos naturais que constituem ameaças para o território e aferir um conjunto de aspetos psicológicos, sociais e culturais que influenciam a perceção de risco dos residentes. Estes conhecimentos possibilitaram o desenvolvimento de uma estratégia de comunicação baseada nas necessidades, atitudes e comportamentos dos indivíduos. A estratégia definida materializa-se num modelo de comunicação do risco para a fase Pré-desastre, que procura responder à complexidade e incerteza dos riscos e suas perceções, permitindo aos diferentes intervenientes (indivíduos, comunidades e instituições) implementar princípios de boa governança do risco e reforçar a sua capacidade de antecipar, resistir, e recuperar de eventos naturais adversos, contribuindo dessa forma para a minimização dos desastres que afetam o território.
Resumo:
Muitas vezes é necessário trabalhar com variáveis categóricas, porem há um número restrito de análisesque as abordam. Uma boa técnica de segmentação é a grade of membership (GoM), muito utilizada na área médica, em psicologia e em sociologia. Essa metodologia possui uma interpretação interessante baseada em perfis extremos (segmentos) e grau de pertencimento. Porém o modelo possui grande complexidade de estimação dos parâmetros pormáxima verossimilhança. Assim, neste trabalho propõe-se o uso de algoritmos genéticos para diminuir a complexidade e o tempo de cálculo, e aumentar a acurácia. A técnica é nomeada de Genetics Algorithms grade of membership (GA-GoM). Para averiguar a efetividade, o modelo foi primeiramente abordado por simulação – foi executado um experimento fatorial levando em conta o número de segmentos e variáveis trabalhadas. Em seguida, foi abordado um caso prático de segmentação de engajamento em redes sociais. Os resultados são superiores para modelos de maior complexidade. Conclui-se, assim, que é útil a abordagem para grandes bases de dados que contenham dados categóricos.
Resumo:
Organizações de todos os tipos e dimensões têm desenvolvido e implementado Sistemas de Gestão Ambiental (SGA), com o objectivo de melhorar o seu desempenho ambiental, garantir o cumprimento da legislação, reduzir o consumo de recursos e melhorar a imagem nos mercados e na sociedade. A implementação de um SGA numa Instituição de Ensino Superior (IES) permite a integração das questões ambientais na gestão global da instituição, constituindo ainda uma excelente oportunidade para o desenvolvimento de trabalhos académicos. Nos últimos anos, a Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa (FCT-UNL) tem sido objecto de várias iniciativas de índole ambiental. O Projecto Campus Verde tem trabalhado no sentido de implementar e certificar um SGA no campus da FCT-UNL, de acordo com os requisitos da norma NP EN ISO 14001:2004 e do Sistema Comunitário de Ecogestão e Auditoria (EMAS). Esta dissertação pretende fornecer orientações para IES que pretendam gerir o consumo de água nos seus campi, no âmbito da implementação de um SGA. Mediante a análise do caso de estudo, pretende-se determinar em que medida a implementação de um SGA numa IES pode contribuir para uma melhoria do desempenho ambiental da instituição, nomeadamente ao nível deste aspecto ambiental. A partir da experiência obtida com o caso de estudo, pretende-se, ainda,identificar os principais obstáculos à implementação de SGA em IES. Concluiu-se que a gestão dos consumos de água de uma IES no âmbito de um SGA conduz à melhoria do seu desempenho ambiental. Concluiu-se, ainda, que existem semelhanças entre as medidas propostas para a minimização dos consumos de água no campus da FCT e as medidas já adoptadas em outras IES, tidas como referências na gestão dos seus aspectos ambientais, o que revela a possibilidade de se criarem sinergias entre instituições desta natureza que pretendam implementar um SGA. Finalmente, resumiram-se os obstáculos encontrados à implementação de SGA em IES.
Resumo:
Resumo: Este estudo tem como finalidade validar e adaptar o WES (Work Experience Survey), de forma a avaliar e caracterizar a percepção que as pessoas DV portuguesas possuem sobre as barreiras ao emprego e as suas formas de resolução e/ou minimização. Da revisão da literatura, constatou-se a inexistência, a nível nacional, de estudos que versassem sobre as barreiras no acesso e manutenção de emprego e estratégias de superação. Este motivo foi o ponto a partir do qual se elaborou a adaptação e validação do questionário WES e a partir do qual alcançamos resultados e conclusões que nos remetem para evidências que a seguir se descrevem. Os dados recolhidos demonstram que esta faixa da população: tem baixos níveis de escolaridade; necessita de aperfeiçoar as suas competências para se tornar mais competitiva no mercado de trabalho; tem dificuldades na acessibilidade ao meio físico, devido às condições de acessibilidade oferecidas; enfrenta problemas no desempenho laboral, devido à falta de tecnologias de apoio e de meios de superação das barreiras no local de trabalho; e sente-se discriminada no acesso e manutenção do emprego, e progressão na carreira. A exploração das razões do insucesso escolar e do perfil de competências adequado, exigíveis para o emprego; o desenvolvimento de planos de promoção da carreira; a divulgação das competências e capacidades dos trabalhadores DV e a averiguação na aplicação da legislação referente à acessibilidade são algumas sugestões apresentadas.
Resumo:
Dissertação para a obtenção do Grau de Mestre em Engenharia Civil – Perfil Construção
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Civil – perfil Construção
Resumo:
RESUMO - Com o aumento da esperança de vida e das doenças crónicas, cada vez se tem implantado mais cardioversores-desfibrilhadores (CDI) para prevenção de morte súbita. O aumento exponencial no número de implantes aumenta o número de seguimentos dos dispositivos, sobrecarregando os profissionais de saúde e comprometendo a qualidade dos serviços prestados. Segundo as recomendações internacionais, um CDI deverá ser vigiado a cada 3 meses, o que perfaz 4 consultas por ano/doente no mínimo, se não existirem episódios de “choques” ou “descompensações” clínicas, e mensalmente quando é atingido o indicador de substituição electiva do gerador. A evolução da tecnologia, de algoritmos, visualização de episódios e terapias requer recursos técnicos e humanos diferenciados e um gasto de tempo considerável no seguimento. Em países como os Estados Unidos da América, em que os doentes têm de percorrer distâncias muito grandes para aceder aos cuidados de saúde, tornou-se preemente a necessidade de um sistema de vigilância alternativo. Nesse sentido, e usando o conceito da telemedicina, foi criado o seguimento/monitorização à distância de dispositivos cardíacos. Este reduz os custos em consultas, deslocações e recursos humanos, uma vez que contempla apenas uma consulta presencial por ano. Por outro lado, aumenta a segurança do doente com a monitorização periódica e a criação de alarmes, permitindo uma assistência de qualidade e intervenção adequada imediata. Aproveitando as vantagens que este tipo de sistema de transmissão remota oferece, procedeu-se no meu serviço, à distribuição inicial de 62 comunicadores a doentes portadores de CDI´s ou com Ressincronizadores Cardíacos (TRC´s1). Apesar de ser considerada uma melhoria na qualidade dos serviços prestados, é também uma mudança importante na metodologia da consulta feita até aqui. Segundo vários autores, a avaliação da qualidade dos cuidados em saúde está intrinsecamente ligada ao grau de satisfação dos doentes com esses serviços, ou seja, à relação entre as suas expectativas e os resultados percebidos por eles, sendo considerado um importante indicador de qualidade dos serviços. Com este trabalho, pretende-se avaliar a percepção dos doentes face ao novo seguimento em termos de aceitação, satisfação, validade, segurança e confiança no novo sistema. Se este mantém os mesmos padrões de qualidade que o seguimento presencial. Trata-se de um estudo transversal com uma componente retrospectiva de avaliação da nova metodologia de consulta à distância. Para tal, foi elaborado um questionário, que foi aplicado a 40 doentes (17,5% do género feminino e 82,5% do género masculino; média de idades de 65 anos) que constituíram a amostra do estudo. Verificou-se uma média de 5 anos de tempo de implante do CDI. Dos dados obtidos, é de realçar que 70% dos inquiridos estão satisfeitos e 30% estão muito satisfeitos com esta nova metodologia de consulta e cerca 67,4% prefere a consulta à distância. Quando solicitados para comparar a qualidade do serviço prestado entre as duas consultas, 65% respondeu igual e 27,5% melhor. Todos os inquiridos responderam ter confiança e segurança com o sistema de consulta à distância. Cerca de 87,5% dos inquiridos vê-se mesmo a continuar com este tipo de consulta. Os resultados obtidos são bastante satisfatórios no que diz respeito à transição do modo como a consulta de CDI´s é feita. Reflectem também que a tecnologia não é necessariamente uma barreira no acesso aos profissionais de saúde, desde que suportada por algum contacto directo (telefone e através de uma consulta presencial por ano). 1 TRC – Terapia de Ressincronização Cardíaca
Resumo:
O Azoto (N): da ciência para a sociedade é um projecto de comunicação de ciência que tem por objecNvo consciencializar os jovens para as ameaças que o azoto (N) em excesso traz para a humanidade. Pode ser dividido em duas partes. Uma, de invesNgação, sobre a análise de resultados de uma consulta pública realizada entre professores, usando o método qualitaNvo do focus group, para compreender a sua sensibilidade e propostas de solução para minimizar o excesso de N no ambiente. Os resultados obNdos foram instrumentais para o desenvolvimento da segunda parte. Esta segunda parte é uma proposta de projecto a submeter ao Horizon 2020, no âm-‐ bito da “Science with and for Society “. Nela se propõe uma abordagem educaNva trans-‐disciplinar, conseguida através da interacção entre docentes do secundário, e do ensino superior, associação de pais e organizações cívicas não governamentais, com vista à consciencialização dos jovens para as ameaças do N em excesso no meio ambiente, fazendo o enquadramento cien@fico e fornecendo abordagens tecnológi-‐ cas. A inovação desta proposta baseia-‐se: (i) no acompanhamento e desenvolvimen-‐ to profissional dos docentes do secundário, (ii) na moNvação dos estudantes a de-‐ senvolver o seu próprio estudo e pesquisa com a tutoria dos docentes, da escola e do ensino superior, e (iii) no desenvolvimento de capacidades de comunicação dos jo-‐ vens para exercer uma cidadania acNva em prol da minimização das ameaças do N.
Resumo:
O trabalho de estágio curricular desenvolvido na UCCLA, adiante apresentado, teve como desafio encontrar respostas para os fenómenos de fraccionamentos multidimensionais sentidos e diagnosticados nas cidades capitais luso-afro-américo-asiáticas de língua oficial portuguesa, resultantes do processo de globalização e seus modelos de desenvolvimento político, cultural, sócio-demográfico, económico e ambiental. A luta pela liberdade, comum a todos os povos das nações que incorporam o espaço lusófono, facilitou os entendimentos futuros, sem os quais não teria sido possível construir as alianças que deram origem ao bloco sócio-político da CPLP, hoje merecedor da atenção e respeito da comunidade internacional. A afirmação e a importância crescentes da CPLP no diálogo das nações à escala global têm sido a plataforma estratégica na afirmação do espaço lusófono no mundo. Refira-se a integração rápida dos retornados na sociedade portuguesa, como um dos factores que mais contribuíram para a consolidação de uma sociedade multicultural alicerçada numa vivência conjunta de realidades diferenciadas. Em face desta realidade, é pacífico aceitar que a UCCLA foi a grande precursora do nascimento da CPLP. As transformações económicas, políticas, sociais, culturais e económicas verificadas após o 25 de Abril, provocaram rupturas sociais, as quais constituem o nosso foco de investigação neste relatório. Uma reflexão sobre o desenvolvimento sustentável dos sistemas políticosócio- económicos encontra-se, hoje, na ordem do dia de todos os decisores políticos, económicos e sociais, como forma de alcançar a coesão social. Apontar soluções inovadoras para a resolução ou minimização dos referidos fraccionamentos é, também, objectivo final da nossa investigação. A globalização, o espaço lusófono e os fracionamentos ético-culturais existentes nas cidades capitais luso-afro-américo-asiáticas de língua oficial portuguesa, representam a nossa temática, sobre a qual se debruça o nosso projecto de investigação, visando essencialmente encontrar um modelo de intervenção pragmático que possa ser implementado nessas cidades capitais, por forma a diminuir as desigualdades promovendo uma maior integração social e económica.
Resumo:
A escassez de recursos humanos da saúde é um problema que afecta especialmente os países em desenvolvimento que recorrem frequentemente a programas baseados no trabalho de Agentes de Saúde Comunitária (ASC). Os ASC são pessoas escolhidas dentro das suas comunidades que são treinadas para dar resposta a pequenas enfermidades. Na Guiné-Bissau, as doenças diarreicas na infância são um dos principais problemas de saúde, tendo os ASC um papel fundamental no diagnóstico e tratamento destas doenças nas zonas mais rurais como a Região Sanitária de Bolama (RSB). O presente estudo focou-se especificamente numa população de ASC da RSB, tendo participado 22 dos 28 ASC existentes na Região. Pretendia-se perceber qual o impacto que a formação realizada sobre doenças diarreicas tinha sobre a efectividade do diagnóstico e tratamento deste tipo de doenças realizado pelos ASC em crianças com menos de 5 anos. Para isso, realizou-se um estudo longitudinal tendo sido efectuadas três avaliações em três momentos distintos – uma avaliação antes da realização de uma formação sobre doenças diarreicas, uma avaliação um mês após a formação e uma última avaliação 3 meses após a formação. Foi aplicada uma grelha de observação da consulta do ASC sempre que havia uma suspeita de uma criança com diarreia, em que se avaliou quais os Sinais e Sintomas, o Diagnóstico e os Tratamentos identificados pelo ASC. Uma grelha igual foi entregue ao médico, que funcionou como padrão de verificação externo. Foi aplicado ainda um questionário de identificação de características sócio-demográficas dos ASC em estudo. Os dados recolhidos foram alvo de tratamento estatístico, tendo sido aplicada a análise de Variância de Friedman e o teste Q-Cochran para comparação dos sucessos obtidos pelos ASC na identificação de itens, nos diferentes momentos de avaliação. Foi ainda aplicado um modelo de regressão logística para averiguar a possível influência de algumas características sócio-demográficas dos ASC sobre a efectividade do diagnóstico. Os resultados obtidos revelam que os ASC melhoram significativamente o seu desempenho imediatamente após a formação mas, 3 meses depois, a efectividade de diagnóstico e tratamento de doenças diarreicas diminui também de forma significativa. Não foi encontrada evidência estatística de que haja influência de alguma característica sócio-demografica sobre a melhoria na efectividade do diagnóstico e tratamento de doenças diarreicas. Os resultados obtidos demonstram que a formação feita aos ASC é, de facto, uma mais-valia para o seu desempenho mas, o impacto da formação acaba por se desvanecer 3 meses após a formação. Este facto pode ser justificável pela perda de competências e pela redução da utilização de algoritmos por parte dos ASC ao longo do tempo, e por factores relacionados com o suporte logístico e material que lhes é dado. A falta de acompanhamento, suporte e formação contínua podem ser também uma razão justificativa da diminuição da efectividade três meses após a formação. É fundamental ter sempre em conta que a selecção, o acompanhamento dos ASC, o suporte logístico e material e a formação continua destes Agentes é tão importante para o sucesso dos programas quanto a formação inicial ministrada.
Resumo:
RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.
Resumo:
A política de ordenamento do território tem um papel indispensável na promoção da qualidade dos espaços urbanos e da complementaridade entre os diferentes usos do solo. Contudo, a prossecução destes objetivos tem encontrado vários obstáculos. Esta investigação entende como principal obstáculo o impacto que a especulação imobiliária e o respetivo ciclo de expansão-depressão têm no crescimento dos centros urbanos. O método do “estudo de caso” é aplicado ao município do Entroncamento, onde são evidentes os impactos territoriais resultantes do ciclo imobiliário: (i) excesso de loteamentos com execução residual; (ii) PMOT expansionistas e desfasados da realidade económico-demográfica; e (iii) fragmentação do tecido urbano provocado pelo crescimento em extensão da cidade, com aumento dos custos de manutenção dos equipamentos e infraestruturas. Os impactos referidos são comprovados através do “método da avaliação”, utilizado para averiguar a execução das áreas urbanizáveis projetadas pelos PMOT com apoio complementar de informação obtida junto da CME. A abordagem centrada na escala local é antecedida de uma explicação teórica acerca da formação do ciclo de expansão/depressão, a uma escala macro, onde se percebe a influência da especulação imobiliária na origem da recente crise económico-financeira no mundo ocidental. Por último, são defendidas soluções alternativas, que reforcem o poder de regulação do mercado imobiliário, e consequentemente, contribuam para a minimização dos impactos territoriais analisados. A principal solução é a reformulação do imposto sobre a propriedade (escala macro), com o intuito de centrar a tributação no valor do solo, ao invés do valor da construção. Esta medida desincentiva a retenção especulativa do solo, pelo que beneficia a reabilitação urbana das áreas consolidadas e a respetiva colmatação. Ao mesmo tempo, é uma ferramenta fundamental para alcançar os objetivos do ordenamento do território, pois cria as condições necessárias para planear por antecipação o desenvolvimento futuro dos territórios.
Resumo:
O paradigma de avaliação do ensino superior foi alterado em 2005 para ter em conta, para além do número de entradas, o número de alunos diplomados. Esta alteração pressiona as instituições académicas a melhorar o desempenho dos alunos. Um fenómeno perceptível ao analisar esse desempenho é que a performance registada não é nem uniforme nem constante ao longo da estadia do aluno no curso. Estas variações não estão a ser consideradas no esforço de melhorar o desempenho académico e surge motivação para detectar os diferentes perfis de desempenho e utilizar esse conhecimento para melhorar a o desempenho das instituições académicas. Este documento descreve o trabalho realizado no sentido de propor uma metodologia para detectar padrões de desempenho académico, num curso do ensino superior. Como ferramenta de análise são usadas técnicas de data mining, mais precisamente algoritmos de agrupamento. O caso de estudo para este trabalho é a população estudantil da licenciatura em Eng. Informática da FCT-UNL. Propõe-se dois modelos para o aluno, que servem de base para a análise. Um modelo analisa os alunos tendo em conta a sua performance num ano lectivo e o segundo analisa os alunos tendo em conta o seu percurso académico pelo curso, desde que entrou até se diplomar, transferir ou desistir. Esta análise é realizada recorrendo aos algoritmos de agrupamento: algoritmo aglomerativo hierárquico, k-means, SOM e SNN, entre outros.
Resumo:
Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.
Resumo:
A Internet conta hoje com mais de 3 mil milhões de utilizadores e esse valor não para de aumentar. Desta forma, proporcionar uma experiência online agradável aos seus utilizadores é cada vez mais importante para as empresas. De modo a tirar partido dos benefícios deste crescimento, as empresas devem ser capazes de identificar os seus clientes-alvo dentro do total de utilizadores; e, subsequentemente, personalizar a sua experiência online. Existem diversas formas de estudar o comportamento online dos utilizadores; no entanto, estas não são ideais e existe uma ampla margem para melhoria. A inovação nesta área pode comportar um grande potencial comercial e até ser disruptiva. Com isto em mente, proponho-me a estudar a possível criacão de um sistema de aprendizagem automática (machine learning) que permita prever informa ações demográficas dos utilizadores estritamente com base no seu comportamento online. Tal sistema poderia constituir uma alternativa às atuais opções, que são mais invasivas; mitigando assim preocupações ao nível da proteção de dados pessoais. No primeiro capítulo (Introdução) explico a motivação para o estudo do comportamento dos utilizadores online por parte de empresas, e descrevo as opções disponíveis atualmente. Apresento também a minha proposta e o contexto em que assenta. O capítulo termina com a identicação de limitações que possam existir a priori. O segundo capítulo (Machine Learning) fornece uma introdução sobre machine learning, com o estudo dos algoritmos que vão ser utilizados e explicando como analisar os resultados. O terceiro capítulo (Implementação) explica a implementação do sistema proposto e descreve o sistema que desenvolvi no decorrer deste estudo, e como integra-lo em sistemas já existentes. No quarto capítulo (Análise e manipulação dos dados), mostro os dados compilados e explico como os recolhi e manipulei para testar a hipótese. No quinto capítulo (Análise de dados e discussão) vemos como e que os dados recolhidos foram usados pelos vários algoritmos para descobrir como se correlacionam com dados dos utilizadores e analiso e discuto os resultados observados. Por fim, o sexto e último capítulo apresenta as conclusões. Dependendo dos resultados, mostro como a hipótese poderia ser melhor testada, ou então discuto os próximos passos para tornar o sistema realidade.