999 resultados para semeadora-adubadora de precisão
Resumo:
RESUMO: O cancro de mama e o mais frequente diagnoticado a indiv duos do sexo feminino. O conhecimento cientifico e a tecnologia tem permitido a cria ção de muitas e diferentes estrat egias para tratar esta patologia. A Radioterapia (RT) est a entre as diretrizes atuais para a maioria dos tratamentos de cancro de mama. No entanto, a radia ção e como uma arma de dois canos: apesar de tratar, pode ser indutora de neoplasias secund arias. A mama contralateral (CLB) e um orgão susceptivel de absorver doses com o tratamento da outra mama, potenciando o risco de desenvolver um tumor secund ario. Nos departamentos de radioterapia tem sido implementadas novas tecnicas relacionadas com a radia ção, com complexas estrat egias de administra ção da dose e resultados promissores. No entanto, algumas questões precisam de ser devidamente colocadas, tais como: E seguro avançar para tecnicas complexas para obter melhores indices de conformidade nos volumes alvo, em radioterapia de mama? O que acontece aos volumes alvo e aos tecidos saudaveis adjacentes? Quão exata e a administração de dose? Quais são as limitações e vantagens das técnicas e algoritmos atualmente usados? A resposta a estas questões e conseguida recorrendo a m etodos de Monte Carlo para modelar com precisão os diferentes componentes do equipamento produtor de radia ção(alvos, ltros, colimadores, etc), a m de obter uma descri cão apropriada dos campos de radia cão usados, bem como uma representa ção geometrica detalhada e a composição dos materiais que constituem os orgãos e os tecidos envolvidos. Este trabalho visa investigar o impacto de tratar cancro de mama esquerda usando diferentes tecnicas de radioterapia f-IMRT (intensidade modulada por planeamento direto), IMRT por planeamento inverso (IMRT2, usando 2 feixes; IMRT5, com 5 feixes) e DCART (arco conformacional dinamico) e os seus impactos em irradia ção da mama e na irradia ção indesejada dos tecidos saud aveis adjacentes. Dois algoritmos do sistema de planeamento iPlan da BrainLAB foram usados: Pencil Beam Convolution (PBC) e Monte Carlo comercial iMC. Foi ainda usado um modelo de Monte Carlo criado para o acelerador usado (Trilogy da VARIAN Medical Systems), no c odigo EGSnrc MC, para determinar as doses depositadas na mama contralateral. Para atingir este objetivo foi necess ario modelar o novo colimador multi-laminas High- De nition que nunca antes havia sido simulado. O modelo desenvolvido est a agora disponí vel no pacote do c odigo EGSnrc MC do National Research Council Canada (NRC). O acelerador simulado foi validado com medidas realizadas em agua e posteriormente com c alculos realizados no sistema de planeamento (TPS).As distribui ções de dose no volume alvo (PTV) e a dose nos orgãos de risco (OAR) foram comparadas atrav es da an alise de histogramas de dose-volume; an alise estati stica complementar foi realizadas usando o software IBM SPSS v20. Para o algoritmo PBC, todas as tecnicas proporcionaram uma cobertura adequada do PTV. No entanto, foram encontradas diferen cas estatisticamente significativas entre as t ecnicas, no PTV, nos OAR e ainda no padrão da distribui ção de dose pelos tecidos sãos. IMRT5 e DCART contribuem para maior dispersão de doses baixas pelos tecidos normais, mama direita, pulmão direito, cora cão e at e pelo pulmão esquerdo, quando comparados com as tecnicas tangenciais (f-IMRT e IMRT2). No entanto, os planos de IMRT5 melhoram a distribuição de dose no PTV apresentando melhor conformidade e homogeneidade no volume alvo e percentagens de dose mais baixas nos orgãos do mesmo lado. A t ecnica de DCART não apresenta vantagens comparativamente com as restantes t ecnicas investigadas. Foram tamb em identi cadas diferen cas entre os algoritmos de c alculos: em geral, o PBC estimou doses mais elevadas para o PTV, pulmão esquerdo e cora ção, do que os algoritmos de MC. Os algoritmos de MC, entre si, apresentaram resultados semelhantes (com dferen cas at e 2%). Considera-se que o PBC não e preciso na determina ção de dose em meios homog eneos e na região de build-up. Nesse sentido, atualmente na cl nica, a equipa da F sica realiza medi ções para adquirir dados para outro algoritmo de c alculo. Apesar de melhor homogeneidade e conformidade no PTV considera-se que h a um aumento de risco de cancro na mama contralateral quando se utilizam t ecnicas não-tangenciais. Os resultados globais dos estudos apresentados confirmam o excelente poder de previsão com precisão na determinação e c alculo das distribui ções de dose nos orgãos e tecidos das tecnicas de simulação de Monte Carlo usados.---------ABSTRACT:Breast cancer is the most frequent in women. Scienti c knowledge and technology have created many and di erent strategies to treat this pathology. Radiotherapy (RT) is in the actual standard guidelines for most of breast cancer treatments. However, radiation is a two-sword weapon: although it may heal cancer, it may also induce secondary cancer. The contralateral breast (CLB) is a susceptible organ to absorb doses with the treatment of the other breast, being at signi cant risk to develop a secondary tumor. New radiation related techniques, with more complex delivery strategies and promising results are being implemented and used in radiotherapy departments. However some questions have to be properly addressed, such as: Is it safe to move to complex techniques to achieve better conformation in the target volumes, in breast radiotherapy? What happens to the target volumes and surrounding healthy tissues? How accurate is dose delivery? What are the shortcomings and limitations of currently used treatment planning systems (TPS)? The answers to these questions largely rely in the use of Monte Carlo (MC) simulations using state-of-the-art computer programs to accurately model the di erent components of the equipment (target, lters, collimators, etc.) and obtain an adequate description of the radiation elds used, as well as the detailed geometric representation and material composition of organs and tissues. This work aims at investigating the impact of treating left breast cancer using di erent radiation therapy (RT) techniques f-IMRT (forwardly-planned intensity-modulated), inversely-planned IMRT (IMRT2, using 2 beams; IMRT5, using 5 beams) and dynamic conformal arc (DCART) RT and their e ects on the whole-breast irradiation and in the undesirable irradiation of the surrounding healthy tissues. Two algorithms of iPlan BrainLAB TPS were used: Pencil Beam Convolution (PBC)and commercial Monte Carlo (iMC). Furthermore, an accurate Monte Carlo (MC) model of the linear accelerator used (a Trilogy R VARIANR) was done with the EGSnrc MC code, to accurately determine the doses that reach the CLB. For this purpose it was necessary to model the new High De nition multileaf collimator that had never before been simulated. The model developed was then included on the EGSnrc MC package of National Research Council Canada (NRC). The linac was benchmarked with water measurements and later on validated against the TPS calculations. The dose distributions in the planning target volume (PTV) and the dose to the organs at risk (OAR) were compared analyzing dose-volume histograms; further statistical analysis was performed using IBM SPSS v20 software. For PBC, all the techniques provided adequate coverage of the PTV. However, statistically significant dose di erences were observed between the techniques, in the PTV, OAR and also in the pattern of dose distribution spreading into normal tissues. IMRT5 and DCART spread low doses into greater volumes of normal tissue, right breast, right lung, heart and even the left lung than tangential techniques (f-IMRT and IMRT2). However,IMRT5 plans improved distributions for the PTV, exhibiting better conformity and homogeneity in target and reduced high dose percentages in ipsilateral OAR. DCART did not present advantages over any of the techniques investigated. Di erences were also found comparing the calculation algorithms: PBC estimated higher doses for the PTV, ipsilateral lung and heart than the MC algorithms predicted. The MC algorithms presented similar results (within 2% di erences). The PBC algorithm was considered not accurate in determining the dose in heterogeneous media and in build-up regions. Therefore, a major e ort is being done at the clinic to acquire data to move from PBC to another calculation algorithm. Despite better PTV homogeneity and conformity there is an increased risk of CLB cancer development, when using non-tangential techniques. The overall results of the studies performed con rm the outstanding predictive power and accuracy in the assessment and calculation of dose distributions in organs and tissues rendered possible by the utilization and implementation of MC simulation techniques in RT TPS.
Resumo:
Neste projecto é testada uma metodologia para actualização de mapas de ocupação do solo já existentes, derivados de fotografia aérea, usando uma imagem satélite para posterior modelação com vista à obtenção da cartografia do risco de incêndio actualizada. Os diferentes passos metodológicos na fase da actualização dos mapas de ocupação de solo são: Classificação digital das novas ocupações, Produção do mapa de alterações, Integração de informação auxiliar, Actualização da Cartografia Temática. Para a produção do mapa de alterações a detecção de alterações foi efectuada através de expressões de Álgebra de Mapas. A classificação digital foi realizada com um classificador assistido - Classificador da Máxima Verosimilhança. A integração de informação auxiliar serviu para melhorar os resultados da classificação digital, nomeadamente em termos das áreas ardidas permitindo uma resolução temática mais detalhada. A actualização resultou da sobreposição do mapa das áreas alteradas classificadas com o mapa desactualizado. Como produto obteve-se a Carta de Alterações da Ocupação do Solo com Potencial Influência no Risco de Incêndio actualizada para 2008, base para a fase da Modelação do Risco. A metodologia foi testada no concelho de Viseu, Centro de Portugal. A Carta de Uso e Ocupação do Solo de Portugal Continental para 2007 (COS2007) foi utilizada como carta de referência. A nova carta actualizada para 2008, no concelho de Viseu, apresenta 103 classes temáticas, 1ha de unidade mínima e 90% de precisão global. A modelação do risco de incêndio geralmente é feita através de índices que variam, de forma geral, numa escala qualitativa, tendo como fim possibilitar a definição de acções de planeamento e ordenamento florestal no âmbito da defesa da floresta contra incêndios. Desta forma, as cartas de risco são indicadas para acções de prevenção, devendo ser utilizadas em conjunto com a carta da perigosidade que juntas podem ser utilizadas em acções de planeamento, em acções de combate e supressão. A metodologia testada, neste projecto, para elaboração de cartografia de risco foi, a proposta por Verde (2008) e adoptada pela AFN (2012). Os resultados apresentados vão precisamente ao encontro do que diz respeito no Guia Técnico para Plano Municipal de Defesa da Floresta Contra Incêndios, "O mapa de Risco combina as componentes do mapa de perigosidade com as componentes do dano potencial (vulnerabilidade e valor) para indicar qual o potencial de perda face ao incêndio florestal".
Resumo:
A governança urbana indica um modelo de administração pública que permite alcançar resultados positivos sobre o território, baseado nos princípios da responsabilização, cooperação, transparência, abertura e participação dos diversos actores que compõem a sociedade civil. Perante os desafios da actualidade, a participação pública revela-se como um ingrediente sine qua non para enfrentar as sucessivas alterações políticas, ambientais e socioeconómicas. Ao mesmo tempo que contribui para tornar os cidadãos (mais) pró-activos na resolução dos problemas urbanos comuns e participar na tomada de decisão. Este trabalho busca identificar os principais problemas urbanos das áreas de expansão informal da cidade da Praia (Cabo Verde) e como as populações podem contribuir para a sua resolução. A metodologia baseou-se, numa primeira fase em pesquisa bibliográfica de referência, para depois partirmos para o trabalho de campo, onde aplicamos inquéritos a membros das famílias da Praia Norte (caso de estudo) e efectuamos entrevistas a responsáveis da autarquia e de ONG preocupadas com as questões urbanas. As análises demonstram um grande distanciamento entre a administração local e a população residente na cidade informal, excluída do processo da governação da cidade, ou seja, apoiado num sistema top-down. Perante os graves problemas territoriais (carência habitacional, insuficiência e/ou deficiência das infra-estruturas básicas e equipamentos colectivos), as autoridades têm demonstrado incapacidade para travar o crescimento de novas áreas informais e de proceder à recuperação das existentes. Por outro lado, a passividade da população em nada tem contribuído para solucionar os problemas e melhorar as suas condições de vida. Conclui-se que o caminho para uma boa governança urbana da cidade da Praia, deve passar pela adopção de um sistema de governação estratégica, alicerçado na participação pública, onde as respostas para resolução dos problemas locais possam surgir numa escala bottom-up. Para isso, é preciso maior investimento no papel da cidadania activa, aliado numa política audaz e inclusiva, ou seja, deixar de “olhar” para o cidadão como um mero eleitor para os projectos políticos e passar a relacionar-se com os mesmos, como se de um cliente para uma empresa se tratasse.
Resumo:
Nos últimos tempos, a preocupação ambiental, passou a ser um tema recorrente na sociedade. A consciência coletiva da limitação do planeta em recursos naturais tem mostrado a necessidade de alterar os comportamentos no sentido de reduzir desperdícios, e conseguir objetivos do dia-a-dia de forma mais eficiente e menos penalizadora do já frágil equilíbrio ecológico. Os consumos energéticos, e especificamente os consumos em edifícios, contribuem de forma significativa para o desequilíbrio ambiental pelo que, cada vez mais, se assiste a um aumento da preocupação com a eficiência energética em edifícios e a consciência dos benefícios que daí podem resultar. A eficiência energética está intimamente relacionada com o não desperdício de energia. Para que não haja desperdício de energia é necessário saber onde essa energia é consumida bem como os fatores que influenciam o consumo. Há já algum tempo que se fazem estudos cujo principal objetivo é prever o consumo de energia num edifício, através da análise de um conjunto de variáveis, normalmente meteorológicas. Mais recentemente começam a surgir novos estudos nesta área, que consideram outro tipo de variáveis, nomeadamente variáveis relacionadas com o comportamento humano, que devidamente tratadas podem modelizar esse mesmo comportamento. Conseguir prever o consumo de um edifício de uma forma mais rigorosa tendo em consideração, não só fatores construtivos ou meteorológicos, mas também fatores resultantes de comportamentos das pessoas, será uma ferramenta preciosa em termos de projeto ou de exploração dos edifícios. Até que ponto a variável humana é importante na previsão de consumos energéticos? É a esta pergunta que a presente dissertação tenta responder. Para tal apresenta um método de estudo, que utiliza redes neuronais, dividido em etapas. Primeiramente é necessário conhecer as variáveis existentes num edifício de estudo, selecionar quais as que são pertinentes na previsão dos consumos e porquê. Em seguida é preciso prever a energia consumida através da análise das variáveis.
Resumo:
Com o crescente progresso tecnológico, surgem sistemas mais eficientes, mas também mais complexos e não-lineares. Isto torna-se mais evidente em sistemas Multi-Input Multi-Output (MIMO), devido a diferentes efeitos que uma entrada possa ter sobre diversas saídas. Para estes sistemas, a obtenção de modelos matemáticos que capturem, com precisão aceitável, a dinâmica do sistema, torna-se cada vez mais complexa e custosa. Sendo que muitos dos sistemas utilizados hoje em dia são MIMO, a diminuição na precisão dos modelos matemáticos é uma adversidade à eficiência dos sistemas de controlo. Isto deve-se a grande parte dos métodos de projeto de controladores terem como base o modelo do sistema. O trabalho realizado nesta dissertação pretende desenvolver uma estrutura de supervisão para sistemas MIMO, com base em controlo Unfalsified, ou Unfalsified Control (UC). Este consiste numa abordagem de controlo adaptativo, cujo processo de adaptação se traduz na seleção de um controlador, de entre um conjunto pré-determinado. Em cada momento é selecionado o controlador que mais se adequa ao objetivo de controlo pretendido. A utilização de UC representa uma possível solução para o problema apresentado, pois utiliza apenas dados experimentais recolhidos do funcionamento do processo. Assim, contorna a necessidade da existência de modelos do processo. Existem, no entanto, dificuldades associadas à comutação de controladores, pelo que este trabalho pretende também desenvolver uma estrutura de Bumpless Transfer (BT), de forma a reduzir estes efeitos. Finalmente, a utilização de dados experimentais implica que a aplicação de UC a um processo está apenas limitada ao ajuste dos parâmetros do sistema de supervisão, e à existência de um conjunto de controladores adequados.
Resumo:
As organizações estão inseridas em ambientes dinâmicos, sujeitas à ocorrência de distúrbios de várias ordens, causados eventualmente por grandes desastres naturais ou simples falhas de entregas de fornecedores-chaves. Para garantir a sobrevivência a estes distúrbios e manter a sua posição competitiva, as organizações precisam estar atentas ao mercado e às suas oportunidades, perceber possíveis sinais das mudanças na sua envolvente e antecipar-se continuamente, alterando a sua estratégia, antes que seja forçada a mudar. A capacidade de uma organização agir proativamente, adaptando-se e aproveitando as oportunidades, maximizando os ganhos e minimizando os problemas ocorre quando a organização desenvolve a capacidade de poder “adivinhar” o futuro. Como isso não é possível, é preciso desenvolver mecanismos de natureza estratégica, para fazer face aos imprevistos que a dinâmica empresarial enfrenta no dia-a-dia e que, como já se referiu, podem perturbar seriamente a sua posição competitiva. A esta capacidade designámos Resiliência Estratégica. Como definir, conceber e operacionalizar a Resiliência Estratégica para desenvolver organizações, constitui o tema central deste trabalho de investigação. Como medir o nível de Resiliência Estratégica constitui o complemento desta questão, pois é vital que a organização conheça a sua situação actual, neste domínio, para desenvolver as necessárias ações de melhoria. Este estudo visa contribuir para o desenvolvimento das organizações, proporcionando um entendimento profundo do que é a Resiliência Estratégica e sugerindo uma métrica para a sua avaliação. Com o intuito de prover um modelo de avaliação, utilizou-se o conceito de Resiliência Estratégica desenvolvido para este estudo alinhado à investigação, de carácter exploratório, permitiu a identificação e exploração dos fatores que favorecem a Resiliência Estratégica, tomando como base, as Teorias de Desenvolvimento Organizacional e Contingencial. Após a seleção dos fatores, procedeu-se à sua validação por especialistas;. para a avaliação da importância de cada fator, foi usado o método Delphi, através de questionário online. A refinação dos resultados foi obtida por recurso a diversas ferramentas estatísticas, nomeadamente, a Análise Fatorial e a Análise de Componentes Principais. Desta forma, concebeu-se um modelo de avaliação da Resiliência Estratégica, composto por 12 componentes não correlacionados. O modelo foi testado em três organizações e revelou ser de grande utilidade no diagnóstico estratégico das organizações e na identificação de ações a desenvolver para a sua Resiliência numa persapectiva estratégica.
Resumo:
O crescimento e a expansão das redes sociais trouxe novas formas de interação entre os seres humanos que se repercutem na vida real. Os textos partilhados nas redes sociais e as interações resultantes de todas as atividades virtuais têm vindo a ganhar um grande impacto no quotidiano da sociedade e no âmbito económico e financeiro, as redes sociais tem sido alvo de diversos estudos, particularmente em termos de previsão e descrição do mercado acionista (Zhang, Fuehres, & Gloor, 2011) (Bollen, Mao & Zheng, 2010). Nesta investigação percebemos se o sentimento do Twitter, rede social de microblogging, se relaciona diretamente com o mercado acionista, querendo assim compreender qual o impacto das redes sociais no mercado financeiro. Tentámos assim relacionar duas dimensões, social e financeira, de forma a conseguirmos compreender de que forma poderemos utilizar os valores de uma para prever a outra. É um tópico especialmente interessante para empresas e investidores na medida em que se tenta compreender se o que se diz de determinada empresa no Twitter pode ter relação com o valor de mercado dessa empresa. Usámos duas técnicas de análise de sentimentos, uma de comparação léxica de palavras e outra de machine learning para compreender qual das duas tinha uma melhor precisão na classificação dos tweets em três atributos, positivo, negativo ou neutro. O modelo de machine learning foi o modelo escolhido e relacionámos esses dados com os dados do mercado acionista através de um teste de causalidade de Granger. Descobrimos que para certas empresas existe uma relação entre as duas variáveis, sentimento do Twitter e alteração da posição da ação entre dois períodos de tempo no mercado acionista, esta última variável estando dependente da dimensão temporal em que agrupamos o nosso sentimento do Twitter. Este estudo pretendeu assim dar seguimento ao trabalho desenvolvido por Bollen, Mao e Zheng (2010) que descobriram que uma dimensão de sentimento (calma) consegue ser usada para prever a direção das ações do mercado acionista, apesar de terem rejeitado que o sentimento geral (positivo, negativo ou neutro) não se relacionava de modo global com o mercado acionista. No seu trabalho compararam o sentimento de todos os tweets de um determinado período sem exclusão com o índice geral de ações no mercado enquanto a metodologia adotada nesta investigação foi realizada por empresa e apenas nos interessaram tweets que se relacionavam com aquela empresa em específico. Com esta diferença obtemos resultados diferentes e certas empresas demonstravam que existia relação entre várias combinações, principalmente para empresas tecnológicas. Testamos o agrupamento do sentimento do Twitter em 3 minutos, 1 hora e 1 dia, sendo que certas empresas só demonstravam relação quando aumentávamos a nossa dimensão temporal. Isto leva-nos a querer que o sentimento geral da empresa, e se a mesma for uma empresa tecnológica, está ligado ao mercado acionista estando condicionada esta relação à dimensão temporal que possamos estar a analisar.
Resumo:
A perceção tridimensional é uma área em crescente desenvolvimento. Não existindo uma tecnologia ideal capaz de percecionar todo o tipo de cenários, têm surgido estudos sobre a aplicabilidade de diferentes tecnologias de forma a obter modelos que melhor se aproximem da realidade. Propõe-se nesta dissertação o desenvolvimento de um sistema de baixo-custo de percepção tridimensional que seja portátil e acessível na sua aplicabilidade, de forma a ter a capacidade de percecionar tridimensionalmente espaços interiores com pouca iluminação, tais como as divisões de um edifício ou os canais de uma mina subterrânea. Utilizou-se a triangulação entre uma câmara digital, os pontos de uma linha laser e um emissor laser para a obtenção dos dados tridimensionais do cenário. Para isso, recorreu-se a metodologias de processamento digital de imagens para a construção dos modelos dos cenários. Para se obter a validação desta dissertação, realizaram-se testes do protótipo de forma a determinar as suas capacidades percecionais. Em primeiro lugar realizou-se uma bateria de testes de calibração onde, repetidamente, se estudaram isoladamente pontos do cenário para verificar a precisão do sensor. Após esta calibração, estudou-se a capacidade de transformação de uma linha laser projetada num conjunto de coordenadas. Finalmente testou-se a capacidade de perceção tridimensional por rotação do sensor, de forma a realizar a transformação de múltiplas projeções de linhas laser num conjunto de coordenadas em torno do sensor. Verificou-se: no teste de calibração, a obtenção de distâncias com erro médio relativo inferior a 1%; no teste da linha laser, a capacidade de perceção de profundidade de múltiplos pontos ao longo da mesma; no teste de rotação, a aquisição de múltiplos conjuntos de linhas de profundidade no cenário, por rotação do sensor. Os resultados dos testes de validação permitiram concluir a viabilidade de utilizar a triangulação na aquisição de conjuntos de coordenadas de espaços interiores.
Resumo:
Neste trabalho estuda-se a resistência à encurvadura (compressão uniforme) de tubos de aço de secção circular, com extremidades rotuladas por meio de cavilhas, tendo em conta a influência da chapa de ligação (gusset plate na designação em língua inglesa). Para o efeito, estuda-se uma ligação-tipo comum com chapa soldada e efetuam-se estudos paramétricos, recorrendo a modelos de elementos finitos de casca, para determinar a influência da chapa na (i) carga crítica e na (ii) carga de colapso do elemento. Os resultados mostram que a influência da chapa não pode ser desprezada para valores reduzidos da esbelteza do elemento. Propõe-se um método expedito e preciso para determinar a carga crítica tendo em conta a influência da chapa.
Resumo:
O retrato é um meio de alcançar a imortalidade. Tal como o nome, o rosto permanece na memória, para além da morte. O retrato é o triunfo da vida. Esta associação de ideias está muito presente na Antiguidade Clássica e Tardia, bem como nas civilizações pré-clássicas, nomeadamente na Egípcia. Uma reflexão introdutória sobre o conceito de retrato, observando-o com os olhos da Antiguidade grega, romana e da Antiguidade Tardia, é um dos objectivos deste pequeno trabalho. As palavras de José-Augusto França, “o retrato assume, por excelência, o equívoco de toda a arte figurativa ou representativa, na medida em que se refere a um modelo preciso, que tende a ser identificado”1, constituem um desafio que nos norteia nas considerações a que nos propomos com os Rostos da Lusitânia.
Resumo:
Apesar da origem etimológica do termo (lat. ballare), a investigação disponível aponta não para a Roma antiga como o espaço e o tempo originais da invenção, do cultivo ou de um particular florescimento do género (v.), mas antes para a Baixa Idade Média europeia, se bem que um dos problemas tradicionalmente levantados por qualquer tentativa de definição ou caracterização da balada seja precisamente o da sua datação de modo tão preciso ou rigoroso quanto possível. Do mesmo modo, embora a sobrevivência do latim, como língua franca, à queda do Império Romano do Ocidente (476) tenha logrado reforçar o seu lugar e estatuto matriciais na génese das línguas românicas modernas, cremos ser de evitar qualquer associação exclusivista ou preferencial da balada -- e da poesia tradicional popular em geral -- com o mundo românico, dada a importância adquirida por esse tipo de poesia nas civilizações germânica, eslava e escandinava, entre outras, assumindo-se simultaneamente como veículo, repositório e memória de patrimónios históricos, lendários e mitológicos. De resto, como nota António Coimbra Martins, reportando-se ao espaço ibérico (in J. do Prado Coelho (dir.), 1987, I, p. 85), a forma privilegiada pela poesia popular não era sequer a balada, mas o romance (v.), geralmente em verso, responsável pela cunhagem do termo romanceiro (v.).
Resumo:
Levando em linha de conta que a imagem pública das Relações Públicas é frequentemente vaga entre organizações, público em geral e por vezes até entre profissionais de comunicação, este trabalho procura enquadrar e delimitar com precisão um campo científico para atividade das Relações Públicas, tendo em consideração os novos instrumentos de que dispõe e as novas realidades que enfrenta, nomeadamente a sociedade globalizada e a crescente perceção de fusão com outras disciplinas da Comunicação e Marketing. Para isso procura-se fazer, numa primeira fase, uma contextualização teórica específica desta disciplina da comunicação, com destaque para a história, modelos, distinção para com o Marketing, Publicidade e a Propaganda e para o conjunto de funções concretas que desempenha nas organizações. Seguidamente abordam-se os instrumentos tradicionais das Relações Públicas como a Imprensa, a Televisão, a Rádio e o contacto direto com o público, para finalmente se apresentar um conjunto de novos instrumentos como a Internet, as Redes Sociais, os Aparelhos Móveis e os Videojogos. Ao longo do trabalho é nossa preocupação apresentar exemplos práticos para demonstrar como deve ser a ação das Relações Públicas em cada circunstância. O objetivo final é, assim, apresentar um documento com fundamentos teóricos sólidos que crie uma visão global para esta atividade neste princípio de século ao mesmo tempo que se aponta um conjunto de novos caminhos que se tornaram incontornáveis e que obrigam as Relações Públicas a reinventar-se a cada dia que passa, sem no entanto renunciar ao seu propósito inicial e de sempre que é estabelecer e manter um bom relacionamento entre as organizações e os seus públicos.
Resumo:
RESUMO: Este trabalho tentou contribuir para a caracterização da fisiopatologia da microcirculação coronária em diferentes formas de patologia com o auxílio da ecocardiografia transtorácica. Com a aplicação da ecocardiografia Doppler transtorácica foi efectuado o estudo da reserva coronária da artéria descendente anterior e com a ecocardiografia de contraste do miocárdio foram analisados parâmetros de perfusão do miocárdio como a velocidade da microcirculação coronária, o volume de sangue miocárdico e a reserva de fluxo miocárdico. Estas técnicas foram utilizadas em diferentes situações fisiopatológicas com particular interesse na hipertrofia ventricular esquerda de diferentes etiologias como a hipertensão arterial, estenose aórtica e cardiomiopatia hipertrófica. Também na diabetes mellitus tipo 2 e na doença coronária aterosclerótica, estudámos as alterações da microcirculação coronária. Com a mesma técnica de ecocardiografia de contraste do miocárdio foi analisada a perfusão do miocárdio num modelo experimental animal sujeito a uma dieta aterogénica. Além das conclusões específicas em relação a cada um dos trabalhos efectuados há a referir como conclusões gerais a sua fácil aplicabilidade e exequibilidade em âmbito clínico, a sua reprodutibilidade e precisão. Quando comparadas com técnicas consideradas de referência mostraram resultados com significativa correlação estatística. Em todos os doentes e nos grupos controle foi possível comprovar e quantificar o gradiente de perfusão transmural em repouso e durante a acção de stress vasodilatador, relevando a importância da perfusão sub-endocárdica na função do ventrículo esquerdo. O estudo da microcirculação coronária no grupo de doentes com hipertrofia ventricular esquerda revelou que no grupo com hipertensão arterial existe disfunção da microcirculação coronária ainda antes de se observar aumento de massa do ventrículo esquerdo, e que esta disfunção é diferente em função da geometria ventricular. Nos doentes com estenose aórtica foi demonstrado que além da disfunção da microcirculação coronária, explicada pelo fenómeno de hipertrofia, existe outro componente extrínseco que depois de corrigido através de cirurgia de substituição valvular, conduziu a uma parcial normalização dos valores de reserva coronária. Na cardiomiopatia hipertrófica observou-se uma grande heterogeneidade de perfusão transmural e foi documentado, em imagens de ecocardiografia de contraste do miocárdio e após análise paramétrica, a ausência de perfusão do miocárdio na região sub-endocárdica durante o stress vasodilatador de reserva coronária diminuídos em fases precoces de evolução da doença. Foi demonstrado que a reserva coronária na DM2 em fases mais avançadas estava significativamente diminuída. Descrevemos também em doentes com DM2 e sem doença coronária angiográfica a existência de disfunção da microcirculação coronária. Durante o stress vasodilatador, observámos e documentámos neste grupo de doentes, a existência de defeitos de perfusão transitórios ou de diminuição da velocidade da microcirculação coronária. No grupo de doentes com doença coronária confirmámos o interesse da avaliação da reserva coronária após intervenção percutânea na definição de prognóstico pós EAM, em termos de recuperação funcional do ventrículo esquerdo. Em doentes com BCRE e de difícil estratificação de risco, foi possível calcular o valor de reserva coronária e estratificar o risco de doença coronária. Num modelo experimental animal demonstrámos a exequibilidade da técnica de ECM, e verificámos que nessas condições experimentais, uma sobrecarga aterogénica na dieta, ao fim de 6 semanas, comprometia severamente a reserva coronária. Estes resultados foram parcialmente reversíveis quando à dieta foi adicionada uma estatina. Estas técnicas pela sua não invasibilidade, fácil acesso, repetibilidade e inocuidade perspectivam-se de grande utilidade na caracterização de doentes com disfunção da microcirculação coronária, nas diferentes áreas de diagnóstico, terapêutica e prevenção. A possibilidade de adaptar a técnica em modelos experimentais animais também nos parece poder vir a ter grande utilidade em investigação.----------------ABSTRACT: This work is intended to be a contribution to the study of coronary microcirculation applying new echocardiographic techniques as transthoracic Doppler echocardiography of coronary arteries and myocardial contrast echocardiography. Coronary flow reserve may be assessed by transthoracic Doppler echocardiography, and important functional microcirculation parameters as microcirculation flow velocity, myocardial blood volume and myocardial flow reserve may be evaluated through myocardial contrast echocardiography. Microcirculation was analysed in different pathophysiological settings. We addressed situations with increased left ventricular mass as systemic arterial hypertension, aortic stenosis and hypertrophic cardiomyopathy. Also coronary microcirculation was studied in type 2 Diabetes and in different clinical forms of atherosclerotic coronary artery disease. Specific and detailed conclusions were withdrawn from each experimental work. In the overall it was concluded that these two techniques were important tools to easily assess specific pathophysiological information about coronary microcirculation at bed side which would be difficult to get through other techniques. When compared with gold standard techniques, similar sensibility and specificity was found. Because of their better temporal and spatial resolution it was possible to analyse the importance of transmural perfusion gradients, both in basal and during vasodilatation, and their relation to ischemia, and mechanical wall kinetics, as wall thickening and motion. Coronary microcirculation dysfunction was found in systemic arterial hypertension early evolution stages, also related to different left ventricular geometric patterns. Different etiopathogenical explanations for aortic stenosis coronary microcirculation dysfunction were analysed and compared after aortic valve replacement. Transmural myocardial perfusion heterogeneity pattern was observed in hypertrophic cardiomyopathy which was aggravated during adenosine challenge. Coronary microcirculation dysfunction was diagnosed in type 2 diabetes both with coronary artery disease and with normal angiographic coronary arteries. Dynamic transitory subendocardial perfusion defects with adenosine vasodilatation were visualized in these patients.In patients with left branch block, transthoracic Doppler echocardiography was able to suggest a coronary reserve cut-off value for risk stratification. Also it was possible with this technique to calculate coronary flow reserve and predict restenosis after PTCA Again, in an experimental animal model, applying myocardial contrast echocardiography technique it was possible to study the consequences of an atherogenic diet and statins action on the coronary microcirculation function. Because these techniques are easily performed at bed side, are harmless, use no ionizing radiation and because of their repeatability, reproducibility and accuracythey are promissory tools to assess coronary microcirculation. Both in clinic and research areas these techniques will probably have a role in clinical diagnosis, prevention and therapeutically decision.
Resumo:
Pensar o espaço implica perceber as características e as problemáticas que surgem quando se fala dele. Implica estudar que definições e conceções lhe foram dadas para ter uma base solida de reflexão. Desde modo, é necessário rever as conceções políticas, etológicas, geográficas e sociológicas do espaço para entender o tipo de territórios que elas sugerem. É necessário também perceber como um território é percecionado e se deixa percecionar pelo um agente constituindo o espaço vivido desse agente. O território nasce pelas relações e ações que os vários agentes têm enquanto as determina. Essas ações e relações estão ligadas ao corpo da terra e as técnicas presentes num determinado território no qual um agente se insere, em função do capital cultural e económico desse agente. Existe um espaço social (Bourdieu, 1979) e um imaginário espacial que determina e é determinado por um ambiente territorial. É esse imaginário e esse ambiente que determina as ações, os desejos e as criações dos agentes e que atualizam o agente. É desta forma que se tem de falar do devir, de um constante “tornarse” tanto para o agente que para o território. Não se pode pensar o território humano sem as interações que os agentes têm entre eles é com o território. Interações que são, como veremos, ligadas a perceção (imaginário) do espaço em função do tipo de espaço. Desde modo, não se pode separar o imaginário do espaço real tal como não se pode separar as interações entre os homens das interações com as técnicas. Este todo, com a noção do constante “tornar-se”, é o território, já é o território. O que nos leva a falar do movimento do território que não para de tornar-se, de mudar, que não para de se desterritorializar e de se reterritorializar. O território é assim inseparável de um agente tal como é inseparável da desterritorialização. Ao aprofundar essa noção de G. Deleuze e F. Guatarri, poderemos pensar no território como um agenciamento ou uma multiterritorialiadade tanto de forma micro como macro-política. No entanto, antes dessa afirmação, será necessário entender como se pode concetualizar o espaço, que características e intensidades um certo espaço reflete. Para tal, veremos a distinção e a relação entre o espaço do sedentário dito estriado, e o espaço do nómada dito liso (Deleuze, Guatarri, 1980). Dois espaço que fluem e se alimentam um no outro em função das suas características e dos agentes que se inserem neles. Contudo, pensar o espaço é o contrário de o fechar numa nova definição, mas é entender que movimento ele sugere e como esse movimento pode responder a compreensão do homem e da sociedade. Como é que hoje, o ambiente ou o agenciamento territorial pode ser considerado como móbil, ou seja, como surge uma multiterritorialidade e como passar de um território a outro pelo movimento de territorialização. Desde modo, é preciso pensar no espaço como algo de aberto, de móbil.
Resumo:
O presente trabalho tem como o objetivo analisar quais tipos de apoio têm sido oferecidos aos alunos que apresentam dificuldade de aprendizagem mas que não foram diagnosticados como alunos com necessidades educativas especiais dentro de uma escola regular, ou seja, alunos que não podem estar abrangidos ou integrados nas medidas do ensino especial. Neste trabalho será feita uma reflexão sobre recursos e políticas educativas, em especial nos primeiros anos da Educação Básica, uma das fases mais importantes para o desenvolvimento e a aprendizagem dos alunos. Trata-se de um estudo descritivo, com base num questionário respondido por uma amostra de 20 professores a exercer na zona de Lisboa. O questionário continha um conjunto de perguntas fechadas e 4 questões abertas, e os dados foram analisados quantitativamente e as perguntas abertas alvo de análise qualitativa. Em complemento realizou-se uma entrevista de aprofundamento e clarificação das respostas. Os resultados sugerem que apesar de ser um número pequeno de participantes ainda sim foi possível identificar uma variedade muito grande de dificuldades encontradas nos seus alunos. Os professores especificaram algumas dessas dificuldades encontradas, juntamente com alguns fatores que contribuem para o agravamento das mesmas. Os resultados apontam ainda para algumas medidas de apoio usadas por esses professores e as medidas de apoio oferecidas pelo sistema educativo para amenizar essas dificuldades. Através deste estudo foi possível pensar sobre as dificuldades encontradas nos nossos alunos, e verificar que a muito por ser feito apesar do esforço de muitos professores, ainda sim e preciso repensar as práticas pedagógicas, os apoios oferecido, e se essas estratégias realmente surte efeito para esses alunos.