15 resultados para Simulação de eventos discretos
em Biblioteca de Teses e Dissertações da USP
Resumo:
Em um cenário de aumento de competitividade, crescente expectativa por inovações do produto e necessidade de atender diferentes perfis de consumidores, o conceito de gerenciamento de cadeias de suprimentos globais (GSCM) surge como uma estratégia para coordenar mais eficazmente as atividades dispersas geograficamente dos sistemas produtivos. Na adoção do GSCM, as organizações devem lidar com rupturas que impactam no gerenciamento das suas atividades, tais como a interrupção de vias de transporte, pane no fornecimento de energia, desastres naturais e até ataques terroristas. Nesse contexto, o trabalho introduz um procedimento sistematizado para modelagem das cadeias de suprimentos visto como um sistema a eventos discretos e sua análise por simulação das atividades do GSCM baseada em técnicas formais como a rede de Petri (PN) e o Production Flow Schema (PFS). Um exemplo é também apresentado para ilustrar e comprovar as vantagens do método proposto na análise do GSCM.
Resumo:
O desenvolvimento de competências profissionais em processos de ensino-aprendizagem insere a simulação na perspectiva tecnológica realística de situações clínicas para atingir objetivos educacionais, visando segurança e qualidade. A ação competente operacionaliza saberes pela combinação de conhecimentos, habilidades e atitudes. A competência avaliação de risco para úlcera por pressão é privativa do enfermeiro, o agravo é indicador de qualidade e segurança do paciente. O objetivo do estudo foi avaliar o processo de ensino-aprendizagem ante a estratégia de simulação clínica, visando o desenvolvimento da competência profissional avaliação de risco para úlceras por pressão e seus respectivos conhecimentos, habilidades e atitudes. Fundamentou-se, teoricamente, o estudo, nos preceitos da andragogia, no modelo de Simulação da National League for Nursing/Jeffries, nas concepções de competências de Le Boterf e recomendações para prevenção de úlcera por pressão do NPUAP/ EPUAP. Trata-se de estudo descritivo com análise quanti e qualitativa, desenvolvido no Laboratório de Simulação da Universidade Federal do Piauí, em Teresina, com estudantes de enfermagem do último ano do curso. Constou de três etapas: construção e validação de conteúdo do instrumento para conhecimentos, habilidades e atitudes da competência, elaboração do plano de aula e sequência didática do cenário de simulação, aplicação de pré/pós-teste sobre o componente \"conhecimento\", aula expositiva, execução do cenário de simulação pelos estudantes, avaliação dos cenários pelo comitê de juízes e debriefing por grupo focal, após o cenário. Verificou-se confiabilidade do construto e do instrumento de medida da competência com concordância predominando de 80 a 100% de pertinência. O instrumento constou de 32 itens: conhecimento (14), habilidades (8) e atitudes (10), com escala de resposta de cinco pontos, de nada (1) a extremamente (5). Inicialmente o estudo contou com 35 estudantes. Desses, 29 (82,8%) participaram da simulação. Predominou o sexo feminino 22 (76%), faixa etária de 21 a 24 anos, 24 (82,7%) e procedentes de Universidades Públicas do Estado do Piauí (83%). Os resultados mostraram melhores níveis de combinação de saberes para o componente conhecimentos, após a aplicação das estratégias de ensino autorreferidos pelos estudantes. Na avaliação dos conhecimentos, habilidade e atitudes, durante o cenário, houve discordância entre os juízes: para o juiz 1 predominaram parâmetros negativos da escala (nada e muito pouco) e para o juiz 2 e 3 os positivos (bastante e extremamente). As comparações pelo teste de variância ANOVA mostraram diferenças significativas entre juiz 1 e 2 (p-valor = < 0,01) e juiz 1 e 3 (p-valor=<0,01) para todos os componentes. A análise dos dados obtidos, durante o debriefing, originou cinco categorias com suas respectivas unidades de registro temáticas pela análise de conteúdo de Bardin. Os resultados sugerem que a estratégia é capaz de resgatar o raciocínio operativo dos estudantes durante a ação, desenvolver pensamento crítico-reflexivo sobre a competência, identificar lacunas de aprendizagem, promover satisfação aos estudantes e melhorar a autoimagem profissional. Conclui-se que a estratégia possibilita o desenvolvimento da competência avaliação de risco para úlcera por pressão nas dimensões de saberes (conhecimento), fazeres (habilidades) e querer-agir, saber-agir e poder-agir (atitudes), explorados neste estudo.
Resumo:
O ensino dos processos de julgamento clínico e de raciocínio diagnóstico para estudantes de enfermagem torna-se cada vez mais importante para a qualificação dos cursos de graduação em enfermagem e alcance do compromisso com a formação clínica por excelência do enfermeiro, em uma realidade de saúde cada vez mais complexa. Os objetivos deste estudo foram identificar o julgamento clínico e o raciocínio diagnóstico de estudantes de enfermagem, correlacionar estes dois processos e identificar diferenças entre estudantes da fase intermediária e os concluintes do curso, de uma Escola do interior paulista. Para avaliar o julgamento clínico, construímos um cenário de simulação clínica de alta-fidelidade, representando uma paciente com anemia falciforme em crise de dor e, ainda, traduzimos e adaptamos à cultura brasileira o instrumento Lasater Clinical Judgment Rubric (LASATER, 2007); para avaliar o raciocínio diagnóstico, utilizamos o instrumento já adaptado por Rodrigues (2012) denominado de Inventário de Raciocínio Diagnóstico (BORDAGE; GRANT; MARSDEN, 1990). Os resultados demonstraram que os estudantes de enfermagem apresentaram, predominantemente, nível Proficiente na maioria das dimensões de julgamento clínico (66,7% dos estudantes do grupo concluinte e 56,5% dos estudantes do grupo intermediário). Já para o raciocínio diagnóstico, a maioria dos estudantes foi considerada com ampla habilidade para realizar diagnósticos de enfermagem (91,3% dos estudantes do grupo intermediário e 83,4% dos estudantes do grupo concluinte). Destaca-se que dos concluintes 11,1% apresentaram habilidade máxima. Os estudantes do último ano de graduação em enfermagem apresentaram desempenho superior na fase de interpretação do julgamento clínico (p=0,021). Não se observou diferença entre os grupos para o raciocínio diagnóstico (p=0,334). Houve moderada correlação entre julgamento clínico e raciocínio diagnóstico; e ainda, a fase de reconhecimento do julgamento clínico apresentou-se moderadamente correlacionada ao processo de raciocínio diagnóstico. Considerando que o raciocínio diagnóstico está presente no processo de julgamento clínico, principalmente no momento da investigação do caso clínico (fase Reconhecimento do julgamento clínico) e que as habilidades de raciocinio diagnóstico se manifestam predominantemente nesta fase, a compreensão e o desenvolvimento destes processos pelos estudantes devem ser valorizados nos currículos de graduação em enfermagem
Resumo:
Após os acidentes nucleares ocorridos no mundo, critérios e requisitos extremamente rígidos para a operação das instalações nucleares foram determinados pelos órgãos internacionais que regulam essas instalações. A partir da ocorrência destes eventos, as operadoras de plantas nucleares necessitam simular alguns acidentes e transientes, por meio de programas computacionais específicos, para obter a licença de operação de uma planta nuclear. Com base neste cenário, algumas ferramentas computacionais sofisticadas têm sido utilizadas como o Reactor Excursion and Leak Analysis Program (RELAP5), que é o código mais utilizado para a análise de acidentes e transientes termo-hidráulicos em reatores nucleares no Brasil e no mundo. Uma das maiores dificuldades na simulação usando o código RELAP5 é a quantidade de informações geométricas da planta necessárias para a análise de acidentes e transientes termo-hidráulicos. Para a preparação de seus dados de entrada é necessário um grande número de operações matemáticas para calcular a geometria dos componentes. Assim, a fim de realizar estes cálculos e preparar dados de entrada para o RELAP5, um pré-processador matemático amigável foi desenvolvido, neste trabalho. O Visual Basic for Applications (VBA), combinado com o Microsoft Excel, foi utilizado e demonstrou ser um instrumento eficiente para executar uma série de tarefas no desenvolvimento desse pré-processador. A fim de atender as necessidades dos usuários do RELAP5, foi desenvolvido o Programa de Cálculo do RELAP5 PCRELAP5 onde foram codificados todos os componentes que constituem o código, neste caso, todos os cartões de entrada inclusive os opcionais de cada um deles foram programados. Adicionalmente, uma versão em inglês foi criada para PCRELAP5. Também um design amigável do PCRELAP5 foi desenvolvido com a finalidade de minimizar o tempo de preparação dos dados de entrada e diminuir os erros cometidos pelos usuários do código RELAP5. Nesse trabalho, a versão final desse pré-processador foi aplicada com sucesso para o Sistema de Injeção de Emergência (SIE) da usina Angra 2.
Resumo:
As expectativas da Organização Mundial de Saúde para o ano de 2030 são que o número de mortes por câncer seja de aproximadamente 13,2 milhões, evidenciando a elevada parcela desta doença no problema de saúde mundial. Com relação ao câncer de próstata, de acordo com o Instituto Nacional do Câncer, o número de casos diagnosticados no mundo em 2012 foi de aproximadamente 1,1 milhão, enquanto que no Brasil os dados indicam a incidência de 68 mil novos casos. O tratamento deste tipo de neoplasia pode ser realizado com cirurgia (prostatectomia) ou radioterapia. Dentre a radioterapia, podemos destacar a técnica de braquiterapia, a qual consiste na introdução (implante) de pequenas fontes radioativas (sementes) no interior da próstata, onde será entregue um valor elevado de dose no volume de tratamento e baixa dose nos tecidos ao redor. No Brasil, a classe médica estima uma demanda de aproximadamente 8000 sementes/mês, sendo o custo unitário de cada semente de pelo menos U$ 26,00. A Associação Americana de Físicos na Medicina publicou alguns documentos descrevendo quais parâmetros e análises devem ser realizadas para avaliações da distribuição de dose, como por exemplo, os parâmetros Constante de taxa de dose, Função radial e Função de anisotropia. Estes parâmetros podem ser obtidos através de medidas experimentais da distribuição de dose ou por simulações computacionais. Neste trabalho foram determinados os parâmetros dosimétricos da semente OncoSeed-6711 da empresa Oncura-GEHealthcare e da semente desenvolvida pelo Grupo de Dosimetria de Fontes de Braquiterapia do Centro de Tecnologia das Radiações (CTR IPEN-CNEN/SP) por simulação computacional da distribuição de dose utilizando o código MCNP5, baseado no Método de Monte Carlo. A semente 6711 foi modelada, assim como um sistema dosimétrico constituído por um objeto simulador cúbico de 30x30x30 cm3 preenchido com água. Os valores obtidos da semente 6711 foram comparados com alguns apresentados na literatura, onde o parâmetro Constante de taxa de dose apresentou erro relativo em relação ao valor publicado no TG- 43 de 0,1%, sendo que os outros parâmetros analisados também apresentaram boa concordância com os valores publicados na literatura. Deste modo, pode-se considerar que os parâmetros utilizados nas simulações (espectro, modelagem geométrica e avaliação de resultados) estão compatíveis com outros estudos, sendo estes parâmetros também utilizados nas simulações da semente do IPEN. Considerando as análises de incerteza estatística, os valores obtidos da semente do IPEN são semelhantes aos valores da semente 6711.
Resumo:
Esta tese apresenta uma abordagem para a criação rápida de modelos em diferentes geometrias (complexas ou de alta simetria) com objetivo de calcular a correspondente intensidade espalhada, podendo esta ser utilizada na descrição de experimentos de es- palhamento à baixos ângulos. A modelagem pode ser realizada com mais de 100 geome- trias catalogadas em um Banco de Dados, além da possibilidade de construir estruturas a partir de posições aleatórias distribuídas na superfície de uma esfera. Em todos os casos os modelos são gerados por meio do método de elementos finitos compondo uma única geometria, ou ainda, compondo diferentes geometrias, combinadas entre si a partir de um número baixo de parâmetros. Para realizar essa tarefa foi desenvolvido um programa em Fortran, chamado de Polygen, que permite modelar geometrias convexas em diferentes formas, como sólidos, cascas, ou ainda com esferas ou estruturas do tipo DNA nas arestas, além de usar esses modelos para simular a curva de intensidade espalhada para sistemas orientados e aleatoriamente orientados. A curva de intensidade de espalhamento é calculada por meio da equação de Debye e os parâmetros que compõe cada um dos modelos, podem ser otimizados pelo ajuste contra dados experimentais, por meio de métodos de minimização baseados em simulated annealing, Levenberg-Marquardt e algorítmicos genéticos. A minimização permite ajustar os parâmetros do modelo (ou composição de modelos) como tamanho, densidade eletrônica, raio das subunidades, entre outros, contribuindo para fornecer uma nova ferramenta para modelagem e análise de dados de espalhamento. Em outra etapa desta tese, é apresentado o design de modelos atomísticos e a sua respectiva simulação por Dinâmica Molecular. A geometria de dois sistemas auto-organizado de DNA na forma de octaedro truncado, um com linkers de 7 Adeninas e outro com linkers de ATATATA, foram escolhidas para realizar a modelagem atomística e a simulação por Dinâmica Molecular. Para este sistema são apresentados os resultados de Root Mean Square Deviations (RMSD), Root Mean Square Fluctuations (RMSF), raio de giro, torção das hélices duplas de DNA além da avaliação das ligações de Hidrogênio, todos obtidos por meio da análise de uma trajetória de 50 ns.
Resumo:
No gerenciamento de recursos hídricos, a bacia hidrográfica é considerada a unidade natural de gestão. Suas características físicas definem um espaço onde a água converge para uma saída comum. O desenvolvimento integrado de uma bacia, bem como os possíveis conflitos ocasionados por demandas concorrentes do mesmo recurso, devem ser administrados respeitando esse conceito de unidade. No caso específico da bacia hidrográfica do Rio Jaguari, existe uma crescente preocupação relacionada aos usos múltiplos da água superficial. O rio Jaguari, importante afluente do Paraíba do Sul no estado de São Paulo, tem suas águas represadas para geração de energia elétrica e regularização de vazões. Nos últimos anos, tem-se constatado um crescente rebaixamento dos níveis operacionais da represa do Jaguari. Segundo estudos da sociedade civil organizada local, a tendência é de esgotamento do reservatório em poucos anos. Este trabalho aborda a questão do rebaixamento dos níveis de Jaguari através da aplicação do software DHI Mike Basin 2000. Trata-se de um simulador genérico para sistemas de recursos hídricos, de ampla aplicação. A bacia do Jaguari é representada em um modelo matemático e são simulados quatro cenários distintos de usos de água na bacia. Verifica-se que o problema é real e requer uma intervenção multi-institucional para ser solucionado.
Resumo:
Na mesma proporção que fontes de água potável são reduzidas, a competição por elas tem aumentado, conseqüência imediata da expansão de áreas urbanas e de novas demandas agro-industriais. Os conflitos gerados por esta competição tendem a comprometer o desenvolvimento sustentável e o progresso de uma forma geral, uma vez que resultam em perda de eficácia para vultuosos investimentos públicos e privados e em prejuízos para os usuários menos estruturados. Considerando os fatos acima, o objeto deste trabalho é o estabelecimento de cenários de alocação das disponibilidades hídricas entre usuários de água da bacia do Sapucaí-Mirim/Grande, visando determinar a convivência harmoniosa das várias finalidades de uso provenientes do mesmo recurso hídrico. Tal meta poderá ser alcançada através da análise dos indicadores de desempenho - confiabilidade, vulnerabilidade e resiliência - do sistema os quais serão obtidos com o auxílio do modelo de simulação IRAS (Interactive River Aquifer Simulation).
Resumo:
Esse trabalho constitui o desenvolvimento da modelagem térmica e simulação por métodos numéricos de dois componentes fundamentais do ciclo de refrigeração por absorção de calor com o par amônia/água: o absorvedor e o gerador. A função do absorvedor é produzir mistura líquida com alta fração mássica de amônia a partir de mistura líquida com baixa fração mássica de amônia e mistura vapor mediante retirada de calor. A função do gerador é produzir mistura líquido/vapor a partir de mistura líquida mediante o fornecimento de calor. É proposto o uso da tecnologia de filmes descendentes sobre placas inclinadas e o método de diferenças finitas para dividir o comprimento da placa em volumes de controle discretos e realizar os balanços de massa, espécie de amônia e energia juntamente com as equações de transferência de calor e massa para o filme descendente. O objetivo desse trabalho é obter um modelo matemático simplificado para ser utilizado em controle e otimização. Esse modelo foi utilizado para calcular as trocas de calor e massa no absorvedor e gerador para diversas condições a partir de dados operacionais, tais como: dimensões desses componentes, ângulo de inclinação da placa, temperatura de superfície e condições de entrada da fase líquida e vapor. Esses resultados foram utilizados para estabelecer relações de causa e efeito entre as variáveis e parâmetros do problema. Os resultados mostraram que o ângulo de inclinação da placa ótimo tanto para o absorvedor como para o gerador é a posição vertical, ou 90°. A posição vertical proporciona o menor comprimento de equilíbrio (0,85 m para o absorvedor e 1,27 m para o gerador com as condições testadas) e se mostrou estável, pois até 75° não foram verificadas variações no funcionamento do absorvedor e gerador. Dentre as condições testadas para uma placa de 0,5 m verificou-se que as maiores efetividades térmicas no absorvedor e gerador foram respectivamente 0,9 e 0,7 e as maiores efetividades mássicas no absorvedor e gerador foram respectivamente 0,6 e 0,5. É esperado que os dados obtidos sejam utilizados em trabalhos futuros para a construção de um protótipo laboratorial e na validação do modelo.
Resumo:
Mudança climática é um processo global, real e inequívoco. Para sua mitigação, a substituição de combustíveis fósseis por energias renováveis está sendo cada vez mais empregada. Devido à rápida velocidade de crescimento das microalgas, seu cultivo é visto como uma das alternativas mais promissoras para a produção de biocombustíveis. No presente trabalho, foi elaborado um modelo matemático fenomenológico que descreve o crescimento da microalga Chlorella vulgaris. Este modelo foi validado através de experimentos realizados em um reator piloto com capacidade de 1000 L tipo \"open pond\" (reator de raias) aberto ao ambiente, em condições não-axênicas. A variação de concentração devida à evaporação e/ou adição de água foi levada em conta no modelo. O modelo matemático desenvolvido, contendo dois parâmetros ajustáveis, descreve a variação da concentração de biomassa em função do tempo sob condições variáveis de luminosidade e temperatura. Os parâmetros ajustáveis são q (constante para conversão de intensidade luminosa em crescimento fotossintético, em klux-1 min-1) e Imax (limite máximo de intensidade luminosa, em klux). Previamente ao projeto do reator, foram realizados experimentos em reator de laboratório (utilizando a metodologia Taguchi) com o objetivo de determinar quais os fatores mais críticos para o crescimento da espécie de microalga selecionada e que, por isso, deveriam ser controlados com maior precisão. Além disso, foi analisada teoricamente a relevância da consideração do transporte de massa de CO2 no processo. Como este transporte é muito mais lento, a resistência controladora do processo é o crescimento fotossintético. Após a construção do reator piloto, foram realizados dois experimentos preliminares (os quais serviram para aperfeiçoar o aparato e o procedimento experimental) e três experimentos definitivos, registrando-se dados ambientais (temperatura, intensidade luminosa e pH) e de concentração ao longo do tempo. Utilizando os dados de temperatura e luminosidade em função do tempo como entrada, os parâmetros q e Imax otimizados foram ajustados às curvas de concentração versus tempo de cada experimento. Para tal foram desenvolvidos programas de integração de equações diferenciais e de otimização escritos em ambiente Scilab®. Verificou-se que, apesar da variabilidade devida às condições ambientais dos experimentos, obteve-se boa aderência dos dados simulados aos experimentais. Uma análise estatística dos parâmetros q e Imax calculados em cada experimento forneceu coeficientes de variação para estes parâmetros de 17 % e 5 %, respectivamente. Concluiu-se, portanto, que o modelo matemático desenvolvido neste trabalho pode ser empregado para prever o desempenho de um reator de raias em condições ambientais variáveis, bastando para isto o ajuste de dois parâmetros.
Resumo:
Neste projeto foi desenvolvido um método computacional para verificação da melhor combinação tela intensificadora - filme para exames mamográficos através do estudo de suas características sensitométricas. O software, desenvolvido em ambiente Delphi para windows, apresenta na tela do microcomputador a imagem a ser obtida para cada tipo de combinação tela intensificadora - filme, utilizando imagens de \"Phantoms\" e de mamas reais. Em razão da ampla quantidade de fatores que influenciam a imagem mamográfica final, tais como magnificação, característica dos filmes e telas intensificadoras e condições da processadora, o método proposto pode proporcionar uma ampla avaliação da qualidade dos sistemas de imagem mamográfica de uma forma simples, rápida e automática, através de procedimentos de simulação computacional. A simulação investigou a influência que um determinado sistema de registro exerce sobre a qualidade da imagem, possibilitando conhecer previamente a imagem final a ser obtida com diferentes equipamentos e sistemas de registro. Dentre os sistemas investigados, três filmes (Kodak Min R 2000, Fuji UM MA-HC e Fuji ADM) e duas telas intensificadoras (Kodak Min R 2000 e Fuji AD Mammo Fine), aquele que apresentou melhores resultados, com melhor qualidade de imagens e menor exposição à paciente foi o de tela Min R 2000 com filme Min R 2000 da Kodak.
Resumo:
ALICE is one of four major experiments of particle accelerator LHC installed in the European laboratory CERN. The management committee of the LHC accelerator has just approved a program update for this experiment. Among the upgrades planned for the coming years of the ALICE experiment is to improve the resolution and tracking efficiency maintaining the excellent particles identification ability, and to increase the read-out event rate to 100 KHz. In order to achieve this, it is necessary to update the Time Projection Chamber detector (TPC) and Muon tracking (MCH) detector modifying the read-out electronics, which is not suitable for this migration. To overcome this limitation the design, fabrication and experimental test of new ASIC named SAMPA has been proposed . This ASIC will support both positive and negative polarities, with 32 channels per chip and continuous data readout with smaller power consumption than the previous versions. This work aims to design, fabrication and experimental test of a readout front-end in 130nm CMOS technology with configurable polarity (positive/negative), peaking time and sensitivity. The new SAMPA ASIC can be used in both chambers (TPC and MCH). The proposed front-end is composed of a Charge Sensitive Amplifier (CSA) and a Semi-Gaussian shaper. In order to obtain an ASIC integrating 32 channels per chip, the design of the proposed front-end requires small area and low power consumption, but at the same time requires low noise. In this sense, a new Noise and PSRR (Power Supply Rejection Ratio) improvement technique for the CSA design without power and area impact is proposed in this work. The analysis and equations of the proposed circuit are presented which were verified by electrical simulations and experimental test of a produced chip with 5 channels of the designed front-end. The measured equivalent noise charge was <550e for 30mV/fC of sensitivity at a input capacitance of 18.5pF. The total core area of the front-end was 2300?m × 150?m, and the measured total power consumption was 9.1mW per channel.
Resumo:
ALICE is one of four major experiments of particle accelerator LHC installed in the European laboratory CERN. The management committee of the LHC accelerator has just approved a program update for this experiment. Among the upgrades planned for the coming years of the ALICE experiment is to improve the resolution and tracking efficiency maintaining the excellent particles identification ability, and to increase the read-out event rate to 100 KHz. In order to achieve this, it is necessary to update the Time Projection Chamber detector (TPC) and Muon tracking (MCH) detector modifying the read-out electronics, which is not suitable for this migration. To overcome this limitation the design, fabrication and experimental test of new ASIC named SAMPA has been proposed . This ASIC will support both positive and negative polarities, with 32 channels per chip and continuous data readout with smaller power consumption than the previous versions. This work aims to design, fabrication and experimental test of a readout front-end in 130nm CMOS technology with configurable polarity (positive/negative), peaking time and sensitivity. The new SAMPA ASIC can be used in both chambers (TPC and MCH). The proposed front-end is composed of a Charge Sensitive Amplifier (CSA) and a Semi-Gaussian shaper. In order to obtain an ASIC integrating 32 channels per chip, the design of the proposed front-end requires small area and low power consumption, but at the same time requires low noise. In this sense, a new Noise and PSRR (Power Supply Rejection Ratio) improvement technique for the CSA design without power and area impact is proposed in this work. The analysis and equations of the proposed circuit are presented which were verified by electrical simulations and experimental test of a produced chip with 5 channels of the designed front-end. The measured equivalent noise charge was <550e for 30mV/fC of sensitivity at a input capacitance of 18.5pF. The total core area of the front-end was 2300?m × 150?m, and the measured total power consumption was 9.1mW per channel.
Resumo:
Muitos são os benefícios provenientes da arborização de vias públicas, como aumento da vida útil do asfalto por meio do sombreamento, filtragem de poluentes, absorção de CO2, interceptação da água da chuva e da radiação solar e mitigação de ilhas de calor; porém, por questões culturais, é considerada muitas vezes pela população como algo negativo, cujas folhas entopem calhas, raízes destroem calçadas, troncos e folhas atrapalham fiação elétrica e, principalmente, elas estão susceptíveis às quedas. A pesquisa teve como objetivo estudar o comportamento das quedas de árvores no município de Piracicaba/SP, Brasil, com atenção especial ao regime de ventos na cidade, baseado em dados fornecidos pelo Corpo de Bombeiros de Piracicaba, Secretaria de Defesa do Meio Ambiente de Piracicaba (SEDEMA) e Estação Meteorológica da Escola Superior de Agricultura \"Luiz de Queiroz\" (ESALQ). De caráter inédito, o principal resultado foi a relação direta entre quedas e zonas urbanizadas, que, em constantes alterações no uso do solo, acabam por danificar a sustentação das árvores (raízes), fato justificado pela alta concentração de quedas na parte central (36,7%), com destaque para as estações da primavera e do verão, ou seja, ventos e chuvas, na qual, juntas, somaram 78,0% do total. O período de retorno esperado para ventos superiores a 75 km h-1, classificados como temporais na Escala de Vento de Beaufort, foi de 2,8 eventos por ano. Enquanto verificou-se o predomínio de ventos alísios de sudeste, pertencentes ao quarto quadrante, a direção das rajadas de vento teve maior variação e, assim, com predomínio daqueles ventos, é recomendável instalações de parques industriais nas zonas norte, noroeste e oeste, haja vista a importância de evitar que os poluentes adentrem a cidade. As espécies de maior vulnerabilidade foram: Pachira aquatica Aubl. (monguba), Handroanthus sp. (ipê roxo) e Tipuana tipu (Benth.) Kuntze (tipuana). Por meio de simulação microclimática computacional, utilizando o programa ENVI-met versão 3.1, em dois estudos de caso, sendo um em bairro residencial e outro na Praça José Bonifácio, foi possível identificar locais de maior atenção quanto às quedas de árvores, em função da rugosidade do local, capaz de alterar a velocidade e a direção do vento.
Resumo:
O paradigma das redes em chip (NoCs) surgiu a fim de permitir alto grau de integração entre vários núcleos de sistemas em chip (SoCs), cuja comunicação é tradicionalmente baseada em barramentos. As NoCs são definidas como uma estrutura de switches e canais ponto a ponto que interconectam núcleos de propriedades intelectuais (IPs) de um SoC, provendo uma plataforma de comunicação entre os mesmos. As redes em chip sem fio (WiNoCs) são uma abordagem evolucionária do conceito de rede em chip (NoC), a qual possibilita a adoção dos mecanismos de roteamento das NoCs com o uso de tecnologias sem fio, propondo a otimização dos fluxos de tráfego, a redução de conectores e a atuação em conjunto com as NoCs tradicionais, reduzindo a carga nos barramentos. O uso do roteamento dinâmico dentro das redes em chip sem fio permite o desligamento seletivo de partes do hardware, o que reduz a energia consumida. Contudo, a escolha de onde empregar um link sem fio em uma NoC é uma tarefa complexa, dado que os nós são pontes de tráfego os quais não podem ser desligados sem potencialmente quebrar uma rota preestabelecida. Além de fornecer uma visão sobre as arquiteturas de NoCs e do estado da arte do paradigma emergente de WiNoC, este trabalho também propõe um método de avaliação baseado no já consolidado simulador ns-2, cujo objetivo é testar cenários híbridos de NoC e WiNoC. A partir desta abordagem é possível avaliar diferentes parâmetros das WiNoCs associados a aspectos de roteamento, aplicação e número de nós envolvidos em redes hierárquicas. Por meio da análise de tais simulações também é possível investigar qual estratégia de roteamento é mais recomendada para um determinado cenário de utilização, o que é relevante ao se escolher a disposição espacial dos nós em uma NoC. Os experimentos realizados são o estudo da dinâmica de funcionamento dos protocolos ad hoc de roteamento sem fio em uma topologia hierárquica de WiNoC, seguido da análise de tamanho da rede e dos padrões de tráfego na WiNoC.