999 resultados para fruticultura de precisão


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação visa a aplicação dos conhecimentos adquiridos sobre estabilidade transversal estática de navios, conjugados com a análise dinâmica do comportamento do navio em mar regular, por intermédio da utilização de um inclinómetro de precisão e das equações matemáticas relacionadas com movimentos oscilatórios amortecidos livres e forçados, para a determinação das características do movimento do navio. É nitidamente claro que a determinação da estabilidade de navios deve ser tratada de uma forma dinâmica. A dificuldade reside essencialmente na medição exacta do efeito das forças dinâmicas tais como o vento e a ondulação. O objectivo principal deste trabalho consiste na obtenção de uma ferramenta expedita para a determinação, em tempo real, da condição de estabilidade transversal de navios, e com uma margem de erro pouco significativa. Para tal, além do tratamento das medições dinâmicas no modelo e no navio, por intermédio do MatlabTM e folha de cálculo ExcelTM para a determinação dos factores de amortecimento e de estabilidade, foram utilizadas as curvas de estabilidade para as condições de carga mais usuais do navio, assim como as curvas hidrostáticas necessárias. No final do trabalho são apresentadas folhas de cálculo em Excel para duas classes de navios, e do Navio-Escola Sagres, cujo objectivo consiste no traçado das curvas relacionadas com a estabilidade transversal em caso de embarque de pesos a bordo, e de alagamentos de determinados compartimentos do navio, com ou sem os efeitos do vento e da ondulação marítima, e respectiva comparação com os critérios de estabilidade transversal em vigor na Marinha.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO - Esta tese pretende ser um contributo para o estudo das anomalias da função visual e da sua influência no desempenho da leitura. Apresentava como objetivos: (1) Identificar a prevalência de anomalias da função visual, (2) Caracterizar o desempenho da leitura em crianças com e sem anomalias da função visual, (3) Identificar de que modo as anomalias da função visual influenciam o desempenho da leitura e (4) Identificar o impacto das variáveis que determinam o desempenho da leitura. Foi recolhida uma amostra de conveniência com 672 crianças do 1º ciclo do ensino básico de 11 Escolas do Concelho de Lisboa com idades compreendidas entre os 6 e os 11 anos (7,69±1,19), 670 encarregados de educação e 34 Professores. Para recolha de dados, foram utilizados três instrumentos: 2 questionários de perguntas fechadas, avaliação da função visual e prova de avaliação da leitura com 34 palavras. Após observadas, as crianças foram classificadas em dois grupos: função visual normal (FVN=562) e função visual alterada (FVA=110). Identificou-se uma prevalência de 16,4% de crianças com FVA. No teste de leitura, estas crianças apresentaram um menor número de palavras lidas corretamente (FVA=31,00; FVN=33,00; p<0,001) e menor precisão (FVA=91,18%; FVN=97,06%; p<0,001). Esta tendência também foi observada na comparação entre os 4 anos de escolaridade. As crianças com função visual alterada mostraram uma tendência para a omissão de letras e a confusão de grafema. Quanto à fluência (FVA=24,71; FVN=27,39; p=0,007) esta foi inferior nas crianças com FVA para todos os anos de escolaridade, exceto o 3º ano. As crianças com hipermetropia (p=0,003) e astigmatismo (p=0,019) não corrigido leram menos palavras corretamente (30,00; 31,00) e com menor precisão (88,24%; 91,18%) que as crianças sem erro refrativo significativo (32,00; 94,12%). A performance escolar classificada pelos professores foi inferior nas crianças com FVA e mais de ¼ necessitavam de medidas de apoio especial na escola. Não se verificaram diferenças significativas na performance da leitura das crianças com FVA por grupos de habilitações dos encarregados de educação. Verificou-se que o risco de ter um desempenho na leitura alterado é superior [OR=4,29; I.C.95%(2,49;7,38)] nas crianças que apresentam FVA. Relativamente ao 1º ano de escolaridade, o 2º, 3º e 4º anos apresentam um menor risco de ter um desempenho na leitura alterado. As variáveis método de ensino, habilitações dos encarregados de educação, tipo de escola (pública/privada), idade do Professor e número de anos de experiência do Professor, não foram fatores estatisticamente significativos para explicar a alteração do desempenho na leitura, quando o efeito da função visual se encontra contemplado no modelo. Um mau desempenho na leitura foi considerado nas crianças que apresentaram uma precisão inferior a 90%. Este indicador pode ser utilizado para identificar crianças em risco, que necessitam de uma observação Ortóptica/Oftalmológica para confirmação ou exclusão da existência de alterações da função visual. Este trabalho constitui um contributo para a identificação de crianças em desvantagem educacional devido a anomalias da função visual tratáveis, propondo um modelo que pretende orientar os professores na identificação de crianças que apresentem um baixo desempenho na leitura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Programação Genética (PG) é uma técnica de Aprendizagem de Máquina (Machine Learning (ML)) aplicada em problemas de otimização onde pretende-se achar a melhor solução num conjunto de possíveis soluções. A PG faz parte do paradigma conhecido por Computação Evolucionária (CE) que tem como inspiração à teoria da evolução natural das espécies para orientar a pesquisa das soluções. Neste trabalho, é avaliada a performance da PG no problema de previsão de parâmetros farmacocinéticos utilizados no processo de desenvolvimento de fármacos. Este é um problema de otimização onde, dado um conjunto de descritores moleculares de fármacos e os valores correspondentes dos parâmetros farmacocinéticos ou de sua atividade molecular, utiliza-se a PG para construir uma função matemática que estima tais valores. Para tal, foram utilizados dados de fármacos com os valores conhecidos de alguns parâmetros farmacocinéticos. Para avaliar o desempenho da PG na resolução do problema em questão, foram implementados diferentes modelos de PG com diferentes funções de fitness e configurações. Os resultados obtidos pelos diferentes modelos foram comparados com os resultados atualmente publicados na literatura e os mesmos confirmam que a PG é uma técnica promissora do ponto de vista da precisão das soluções encontradas, da capacidade de generalização e da correlação entre os valores previstos e os valores reais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Fibrilhação Auricular é uma alteração do ritmo cardíaco designada por arritmia. Esta patologia é considerada a forma de arritmia mais frequentemente observada na prática clínica e que constitui uma importante causa de morbilidade pelo risco inerente de desenvolvimento de AVC. Em 2010 foi realizado um estudo epidemiológico na população Portuguesa com o objectivo determinar a prevalência de Fibrilhação Auricular na população portuguesa com idade igual ou superior a 40 anos, sob o acrónimo de FAMA. Os dados publicados indicaram uma estimativa de prevalência de 2,5%, com um aumento da prevalência em função da classe etária. A nível regional não foram observadas diferenças na taxa de prevalência. Estudos de mapeamento de doenças mostraram que a determinação de taxas de prevalência por região, quando o número de casos observados é relativamente baixo, apresentam sobredispersão e, consequentemente, uma falta de precisão nas estimativas obtidas através um método frequencista clássico. A utilização de modelos Bayesianos hierárquicos no mapeamento de doenças tem apresentado vantagem na estimação de valores de risco da doença comparativamente à abordagem clássica. Assim, é objectivo deste trabalho determinar a prevalência de Fibrilhação Auricular na população Portuguesa por região, ao nível da NUTS III, usando modelos hierárquicos Bayesianos. Os dados utilizados neste estudo são os dados referentes ao estudo FAMA, pós-estratificados para correcção dos ponderadores. O modelo Bayesiano proposto por Besag, York e Mollié (1991) foi usado para modelar os dados, covariando para a idade e índice de massa corporal. A revisão do desenho do estudo e o recálculo dos ponderadores foi realizado com recurso ao software R, survey, e a análise Bayesiana efectuada através do WinBugs. iii Os resultados deste estudo demonstram que o uso de modelos Bayesianos são uma melhor opção para a estimação de valores risco relativo e prevalência da doença. Contudo, a utilização de covariáveis não resultou numa melhoria considerável ao contrário do que seria esperado. Conclui-se que a Fibrilhação Auricular apresenta variações regionais significativas, a nível de NUTS III, que não devem ser desvalorizadas na determinação de políticas de saúde pública para controle da doença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foi realizado no âmbito do projecto Lab on Paper, desenvolvido no Centro de Investigação de Materiais (CENIMAT) da Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa (FCT - UNL)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Tesi è incentrata sulle figure di D. Dinis e Isabel d’Aragona, reali del Portogallo (fine del XIII-prima metà del XIV secolo), e si focalizza sul processo di creazione e trasmissione della memoria, elaborato e messo in atto dai sovrani nel corso della loro esistenza. L’atto finale di questo annoso processo fu la realizzazione dei loro monumenti funebri creati per essere conservati nella chiesa del monastero cistercense di São Bernardo e São Dinis di Odivelas, la tomba del re, e nella chiesa del monastero di Santa Clara e Santa Isabel di Coimbra, quella della regina. Infatti, in modo del tutto inedito rispetto alla tradizione precedente, i re commissionarono e videro in vita realizzati i sepolcri che avrebbero dovuto preservare la loro memoria per l’Eternità. Essi furono concepiti a priori come parte integrante del progetto monumentale più vasto costituito dagli edifici monastici che li avrebbero dovuti custodire. In tale prospettiva, è stata rivolta particolare attenzione alla storia del monastero di Odivelas, assurto a pantheon della Monarchia, seppure per breve tempo, e al monastero di Coimbra, ultima dimora della regina Isabel una volta fallito il progetto del pantheon reale a causa della guerra civile che sconvolse il regno del Portogallo tra il 1319 e il 1324. Oltre ai sepolcri reali, sono state prese in esame alcune opere di architettura e di scultura legate alla committenza regia – in coppia o individualmente –, in particolare tre tombe coeve, due delle quali destinate ad altrettanti membri della famiglia reale. All’interno di questa Tesi, i monumenti funebri esaminati sono stati considerati non solo come strumento privilegiato per la commemorazione del defunto, ma anche come forieri di un preciso messaggio indirizzato a tutti coloro che avrebbero fruito della loro visione. Così, l’iconografia dei sepolcri è stata analizzata alla luce della spiritualità e della religiosità dei sovrani, oltre che dal punto di vista stilistico e formale. Come premessa allo studio prettamente storico-artistico, inizialmente sono stati approfonditi i rapporti tra il regno del Portogallo e la Sede Apostolica al momento dell’ascesa al trono di D. Dinis e, successivamente, il tema della guerra civile che vide contrapporsi il re e il principe, il futuro Alfonso IV. A questo scopo, integra la Tesi un’Appendice documentaria che presenta 64 documenti, la maggior parte dei quali inediti. Questo studio intende dimostrare come il Portogallo dionisino si collochi pienamente nell’orbita culturale mediterranea e proporre nuove affermazioni, considerazioni ed ipotesi rispetto ai re Dinis e Isabel, alle loro vicende storiche e personali e alla memoria di sé che vollero trasmettere ai posteri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 1821, Garrett (1799-185 4) confessa estar "imitar" (...) uma composição alemã do século passado, não se recordando porém do respectivo autor (Garrett. 1963 I: 1708). Em 1853, "O Menino e a Cobra" surge em quinto lugar no seio da pequena colectânea de nove poemas intitulada Fábulas e Contos inserta na 2ª- edição de Folhas Caídas (Monteiro, 1999, 141), O autor alemão chama-se Gotthold Ephraim lessing 0729-1781), criador da fábula imitada e intitulada Der Knabe und die Schlange - a terceira em trinta constantes do II livro, centro de obra triptica publicada em 1759 pelo editor C.F.VoB em Berlim e intitulada Fabeln. Drei Bücher. Nebs( AblumdluTlgen mit dieser Dichtungsart werwandren Inhalts. [Fábulas. Três Livros. Acrescidos de Tratados de Conteúdo Aparentado com esta Espécie Literária Igualmente em 1853, a Imprensa de Francisco Xavier de Souza em Lisboa publica Fábulas de G. E. Lessing, traduzidas do alemão pelo _Médico Cirurgído pela Escola de Lisboa Professor de Geographia, Chronologia e História no Lyceo Nacional da Mesma Cidade, etc. (Pereira, 1853: Frontispicio} de nome Joâo Félix Pereira (1822-1891). Lessing, escolhido, porque "De todos os escritores de seo tempo nenhum fez tantos serviços á litterarura alleman." {Pereira, 1853: I I}, para quem - assim na "biograplia" introduzindo as traduções - "Shakespeare C..) tinha cm sua [De lessing] opinião o mérito dramático dos gregos." (1853 :1415) e cujo estudo e discussão deste mérito fizeram "A Dratuarurgia, Euulia Gallon, o Laocoon e Narhan pertencelrjem certamente ao número dos modelos que mais contribuíram para dar á língua alleman a precisão, de que se julgava insuceptivel." (l853: 15), tornando Lessing para a sua epocha, como Lutther para a sua o verdadeiro modelo clássico." (idém, ibudem) Nesta "Biographia de Lessing" (Pereira, 1853:11-16) atesta-se o valor de criador de noventa fábulas em prosa traduzidas na integra e publicadas em edição bilingue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a evolução da teoria e das práticas metrológicas das últimas décadas, levantam-se novas exigências e desafios relacionados com a atividade metrológica, nomeadamente no que diz respeito não só à exatidão e precisão, como também à repetibilidade, reprodutibilidade das medições e produtividade dos ensaios. Esta necessidade também foi sentida no Laboratório de Comprimento, LCO, do Departamento de Metrologia, DMET, do Instituto Português da Qualidade, IPQ, relativamente à calibração de instrumentos de medição. Assim, surgiu entre outros, o projeto que visa o melhoramento do processo de calibração de sistemas laser interferométricos em distância. A presente dissertação e o estágio curricular no LCO foram desenvolvidos no âmbito deste projeto em colaboração entre o IPQ e a FCT-UNL. O trabalho presente nesta dissertação centrou-se na necessidade de aumentar a produtividade do processo e a capacidade de resposta do laboratório, reduzindo o tempo necessário para a realização de cada calibração. Este objetivo foi alcançado através da automatização do processo, de modo a eliminar os desperdícios de tempo entre o deslocamento manual de uma plataforma e a aquisição dos valores associados à calibração. No decurso do desenvolvimento deste trabalho, surgiram outras necessidades que precisavam, também, de resposta adequada. Assim, na presente dissertação também foi concebido, desenvolvido e implementado um dispositivo que auxilia a calibração, de modo a não ocorrer o desalinhamento inesperado dos feixes laser, entre outras ocorrências negativas. Os objetivos do trabalho, tanto principais como secundários, foram alcançados. O dispositivo automatizado foi implementado e plenamente integrado nas atividades correntes do laboratório, permitindo uma poupança de 33.3% em termos de tempo de cada calibração efetuada, possibilitando com isso um aumento da produtividade e da capacidade de resposta do Laboratório de Comprimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente o universo das tecnologias móveis encontra-se numa constante e crescente popularização. É possível observar que os dispositivos móveis possuem cada vez mais utilidade e aplicabilidade no dia-a-dia, seja para ajudar os utilizadores no seu trabalho ou como forma de entretenimento. Assim, o interesse pelo desenvolvimento de sistemas de realidade aumentada, em aplicações móveis, tem vindo a aumentar significativamente. Estes sistemas, que integram a realidade com elementos virtuais, proporcionam ao utilizador uma interação fácil e segura, sem necessidade de conhecimento prévio desta tecnologia. Mesmo assim, ainda existem algumas limitações envolvendo questões de iluminação, do alinhamento feito com precisão entre a componente real e virtual e do correto seguimento de características interessantes do mundo real. Seguindo estas tendências, este trabalho tem como objetivo principal o estudo e o desenvolvimento de aplicações de realidade aumentada. Para este trabalho são utilizados os sistemas de deteção e de reconhecimento de faces como forma de solucionar as limitações mencionadas. Tendo em conta que a realidade aumentada também tem a capacidade de melhorar a experiência de jogo dos utilizadores, pretende-se explorar algumas possibilidades de aplicações de realidade aumentada através do desenvolvimento de um jogo para tablet. A solução proposta descreve o jogo ARZombie, onde o objetivo do utilizador é eliminar zombies que são detetados através da câmara do dispositivo. Em vez de usar marcadores, como forma de seguimento e alinhamento dos zombies, este jogo incorpora um sistema que integra a tecnologia de realidade aumentada com um sistema de deteção e reconhecimento facial, contribuindo na interação do jogador com a realidade e permitindo aumentar a experiência de utilização. O sistema implementado foi testado com utilizadores para avaliar esta técnica de interação e os componentes deste sistema foram avaliados relativamente ao seu desempenho, a fim de garantir a melhor experiência de jogo possível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As simulações que pretendam modelar fenómenos reais com grande precisão em tempo útil exigem enormes quantidades de recursos computacionais, sejam estes de processamento, de memória, ou comunicação. Se até há pouco tempo estas capacidades estavam confinadas a grandes supercomputadores, com o advento dos processadores multicore e GPUs manycore os recursos necessários para este tipo de problemas estão agora acessíveis a preços razoáveis não só a investigadores como aos utilizadores em geral. O presente trabalho está focado na otimização de uma aplicação que simula o comportamento dinâmico de materiais granulares secos, um problema do âmbito da Engenharia Civil, mais especificamente na área da Geotecnia, na qual estas simulações permitem por exemplo investigar a deslocação de grandes massas sólidas provocadas pelo colapso de taludes. Assim, tem havido interesse em abordar esta temática e produzir simulações representativas de situações reais, nomeadamente por parte do CGSE (Australian Research Council Centre of Excellence for Geotechnical Science and Engineering) da Universidade de Newcastle em colaboração com um membro da UNIC (Centro de Investigação em Estruturas de Construção da FCT/UNL) que tem vindo a desenvolver a sua própria linha de investigação, que se materializou na implementação, em CUDA, de um algoritmo para GPUs que possibilita simulações de sistemas com um elevado número de partículas. O trabalho apresentado consiste na otimização, assente na premissa da não alteração (ou alteração mínima) do código original, da supracitada implementação, de forma a obter melhorias significativas tanto no tempo global de execução da aplicação, como no aumento do número de partículas a simular. Ao mesmo tempo, valida-se a formulação proposta ao conseguir simulações que refletem, com grande precisão, os fenómenos físicos. Com as otimizações realizadas, conseguiu-se obter uma redução de cerca de 30% do tempo inicial cumprindo com os requisitos de correção e precisão necessários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste projecto é testada uma metodologia para actualização de mapas de ocupação do solo já existentes, derivados de fotografia aérea, usando uma imagem satélite para posterior modelação com vista à obtenção da cartografia do risco de incêndio actualizada. Os diferentes passos metodológicos na fase da actualização dos mapas de ocupação de solo são: Classificação digital das novas ocupações, Produção do mapa de alterações, Integração de informação auxiliar, Actualização da Cartografia Temática. Para a produção do mapa de alterações a detecção de alterações foi efectuada através de expressões de Álgebra de Mapas. A classificação digital foi realizada com um classificador assistido - Classificador da Máxima Verosimilhança. A integração de informação auxiliar serviu para melhorar os resultados da classificação digital, nomeadamente em termos das áreas ardidas permitindo uma resolução temática mais detalhada. A actualização resultou da sobreposição do mapa das áreas alteradas classificadas com o mapa desactualizado. Como produto obteve-se a Carta de Alterações da Ocupação do Solo com Potencial Influência no Risco de Incêndio actualizada para 2008, base para a fase da Modelação do Risco. A metodologia foi testada no concelho de Viseu, Centro de Portugal. A Carta de Uso e Ocupação do Solo de Portugal Continental para 2007 (COS2007) foi utilizada como carta de referência. A nova carta actualizada para 2008, no concelho de Viseu, apresenta 103 classes temáticas, 1ha de unidade mínima e 90% de precisão global. A modelação do risco de incêndio geralmente é feita através de índices que variam, de forma geral, numa escala qualitativa, tendo como fim possibilitar a definição de acções de planeamento e ordenamento florestal no âmbito da defesa da floresta contra incêndios. Desta forma, as cartas de risco são indicadas para acções de prevenção, devendo ser utilizadas em conjunto com a carta da perigosidade que juntas podem ser utilizadas em acções de planeamento, em acções de combate e supressão. A metodologia testada, neste projecto, para elaboração de cartografia de risco foi, a proposta por Verde (2008) e adoptada pela AFN (2012). Os resultados apresentados vão precisamente ao encontro do que diz respeito no Guia Técnico para Plano Municipal de Defesa da Floresta Contra Incêndios, "O mapa de Risco combina as componentes do mapa de perigosidade com as componentes do dano potencial (vulnerabilidade e valor) para indicar qual o potencial de perda face ao incêndio florestal".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A governança urbana indica um modelo de administração pública que permite alcançar resultados positivos sobre o território, baseado nos princípios da responsabilização, cooperação, transparência, abertura e participação dos diversos actores que compõem a sociedade civil. Perante os desafios da actualidade, a participação pública revela-se como um ingrediente sine qua non para enfrentar as sucessivas alterações políticas, ambientais e socioeconómicas. Ao mesmo tempo que contribui para tornar os cidadãos (mais) pró-activos na resolução dos problemas urbanos comuns e participar na tomada de decisão. Este trabalho busca identificar os principais problemas urbanos das áreas de expansão informal da cidade da Praia (Cabo Verde) e como as populações podem contribuir para a sua resolução. A metodologia baseou-se, numa primeira fase em pesquisa bibliográfica de referência, para depois partirmos para o trabalho de campo, onde aplicamos inquéritos a membros das famílias da Praia Norte (caso de estudo) e efectuamos entrevistas a responsáveis da autarquia e de ONG preocupadas com as questões urbanas. As análises demonstram um grande distanciamento entre a administração local e a população residente na cidade informal, excluída do processo da governação da cidade, ou seja, apoiado num sistema top-down. Perante os graves problemas territoriais (carência habitacional, insuficiência e/ou deficiência das infra-estruturas básicas e equipamentos colectivos), as autoridades têm demonstrado incapacidade para travar o crescimento de novas áreas informais e de proceder à recuperação das existentes. Por outro lado, a passividade da população em nada tem contribuído para solucionar os problemas e melhorar as suas condições de vida. Conclui-se que o caminho para uma boa governança urbana da cidade da Praia, deve passar pela adopção de um sistema de governação estratégica, alicerçado na participação pública, onde as respostas para resolução dos problemas locais possam surgir numa escala bottom-up. Para isso, é preciso maior investimento no papel da cidadania activa, aliado numa política audaz e inclusiva, ou seja, deixar de “olhar” para o cidadão como um mero eleitor para os projectos políticos e passar a relacionar-se com os mesmos, como se de um cliente para uma empresa se tratasse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos tempos, a preocupação ambiental, passou a ser um tema recorrente na sociedade. A consciência coletiva da limitação do planeta em recursos naturais tem mostrado a necessidade de alterar os comportamentos no sentido de reduzir desperdícios, e conseguir objetivos do dia-a-dia de forma mais eficiente e menos penalizadora do já frágil equilíbrio ecológico. Os consumos energéticos, e especificamente os consumos em edifícios, contribuem de forma significativa para o desequilíbrio ambiental pelo que, cada vez mais, se assiste a um aumento da preocupação com a eficiência energética em edifícios e a consciência dos benefícios que daí podem resultar. A eficiência energética está intimamente relacionada com o não desperdício de energia. Para que não haja desperdício de energia é necessário saber onde essa energia é consumida bem como os fatores que influenciam o consumo. Há já algum tempo que se fazem estudos cujo principal objetivo é prever o consumo de energia num edifício, através da análise de um conjunto de variáveis, normalmente meteorológicas. Mais recentemente começam a surgir novos estudos nesta área, que consideram outro tipo de variáveis, nomeadamente variáveis relacionadas com o comportamento humano, que devidamente tratadas podem modelizar esse mesmo comportamento. Conseguir prever o consumo de um edifício de uma forma mais rigorosa tendo em consideração, não só fatores construtivos ou meteorológicos, mas também fatores resultantes de comportamentos das pessoas, será uma ferramenta preciosa em termos de projeto ou de exploração dos edifícios. Até que ponto a variável humana é importante na previsão de consumos energéticos? É a esta pergunta que a presente dissertação tenta responder. Para tal apresenta um método de estudo, que utiliza redes neuronais, dividido em etapas. Primeiramente é necessário conhecer as variáveis existentes num edifício de estudo, selecionar quais as que são pertinentes na previsão dos consumos e porquê. Em seguida é preciso prever a energia consumida através da análise das variáveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o crescente progresso tecnológico, surgem sistemas mais eficientes, mas também mais complexos e não-lineares. Isto torna-se mais evidente em sistemas Multi-Input Multi-Output (MIMO), devido a diferentes efeitos que uma entrada possa ter sobre diversas saídas. Para estes sistemas, a obtenção de modelos matemáticos que capturem, com precisão aceitável, a dinâmica do sistema, torna-se cada vez mais complexa e custosa. Sendo que muitos dos sistemas utilizados hoje em dia são MIMO, a diminuição na precisão dos modelos matemáticos é uma adversidade à eficiência dos sistemas de controlo. Isto deve-se a grande parte dos métodos de projeto de controladores terem como base o modelo do sistema. O trabalho realizado nesta dissertação pretende desenvolver uma estrutura de supervisão para sistemas MIMO, com base em controlo Unfalsified, ou Unfalsified Control (UC). Este consiste numa abordagem de controlo adaptativo, cujo processo de adaptação se traduz na seleção de um controlador, de entre um conjunto pré-determinado. Em cada momento é selecionado o controlador que mais se adequa ao objetivo de controlo pretendido. A utilização de UC representa uma possível solução para o problema apresentado, pois utiliza apenas dados experimentais recolhidos do funcionamento do processo. Assim, contorna a necessidade da existência de modelos do processo. Existem, no entanto, dificuldades associadas à comutação de controladores, pelo que este trabalho pretende também desenvolver uma estrutura de Bumpless Transfer (BT), de forma a reduzir estes efeitos. Finalmente, a utilização de dados experimentais implica que a aplicação de UC a um processo está apenas limitada ao ajuste dos parâmetros do sistema de supervisão, e à existência de um conjunto de controladores adequados.