1000 resultados para simulador de chuva
Resumo:
La tesis propone un marco de trabajo para el soporte de la toma de decisiones adecuado para soportar la ejecución distribuida de acciones cooperativas en entornos multi-agente dinámicos y complejos. Soporte para la toma de decisiones es un proceso que intenta mejorar la ejecución de la toma de decisiones en escenarios cooperativos. Este proceso ocurre continuamente en la vida diaria. Los humanos, por ejemplo, deben tomar decisiones acerca de que ropa usar, que comida comer, etc. En este sentido, un agente es definido como cualquier cosa que está situada en un entorno y que actúa, basado en su observación, su interpretación y su conocimiento acerca de su situación en tal entorno para lograr una acción en particular.Por lo tanto, para tomar decisiones, los agentes deben considerar el conocimiento que les permita ser consientes en que acciones pueden o no ejecutar. Aquí, tal proceso toma en cuenta tres parámetros de información con la intención de personificar a un agente en un entorno típicamente físico. Así, el mencionado conjunto de información es conocido como ejes de decisión, los cuales deben ser tomados por los agentes para decidir si pueden ejecutar correctamente una tarea propuesta por otro agente o humano. Los agentes, por lo tanto, pueden hacer mejores decisiones considerando y representando apropiadamente tal información. Los ejes de decisión, principalmente basados en: las condiciones ambientales, el conocimiento físico y el valor de confianza del agente, provee a los sistemas multi-agente un confiable razonamiento para alcanzar un factible y exitoso rendimiento cooperativo.Actualmente, muchos investigadores tienden a generar nuevos avances en la tecnología agente para incrementar la inteligencia, autonomía, comunicación y auto-adaptación en escenarios agentes típicamente abierto y distribuidos. En este sentido, esta investigación intenta contribuir en el desarrollo de un nuevo método que impacte tanto en las decisiones individuales como colectivas de los sistemas multi-agente. Por lo tanto, el marco de trabajo propuesto ha sido utilizado para implementar las acciones concretas involucradas en el campo de pruebas del fútbol robótico. Este campo emula los juegos de fútbol real, donde los agentes deben coordinarse, interactuar y cooperar entre ellos para solucionar tareas complejas dentro de un escenario dinámicamente cambiante y competitivo, tanto para manejar el diseño de los requerimientos involucrados en las tareas como para demostrar su efectividad en trabajos colectivos. Es así que los resultados obtenidos tanto en el simulador como en el campo real de experimentación, muestran que el marco de trabajo para el soporte de decisiones propuesto para agentes situados es capaz de mejorar la interacción y la comunicación, reflejando en un adecuad y confiable trabajo en equipo dentro de entornos impredecibles, dinámicos y competitivos. Además, los experimentos y resultados también muestran que la información seleccionada para generar los ejes de decisión para situar a los agentes, es útil cuando tales agentes deben ejecutar una acción o hacer un compromiso en cada momento con la intención de cumplir exitosamente un objetivo colectivo. Finalmente, algunas conclusiones enfatizando las ventajas y utilidades del trabajo propuesto en la mejora del rendimiento colectivo de los sistemas multi-agente en situaciones tales como tareas coordinadas y asignación de tareas son presentadas.
Resumo:
La creciente preocupación y concienciación de la sociedad respecto el medio ambiente, y en consecuencia la legislación y regulaciones generadas inducen a la modificación de los procesos productivos existentes en la industria química. Las configuraciones iniciales deben modificarse para conseguir una mayor integración de procesos. Para este fin se han creado y desarrollado diferentes metodologías que deben facilitar la tarea a los responsables del rediseño. El desarrollo de una metodología y herramientas complementarias es el principal objetivo de la investigación aquí presentada, especialmente centrada en el desarrollo y la aplicación de una metodología de optimización de procesos. Esta metodología de optimización se aplica sobre configuraciones de proceso existentes y pretende encontrar nuevas configuraciones viables según los objetivos de optimización fijados. La metodología tiene dos partes diferenciadas: la primera se basa en un simulador de procesos comercial y la segunda es la técnica de optimización propiamente dicha. La metodología se inicia con la elaboración de una simulación convenientemente validada que reproduzca el proceso existente, en este caso una papelera no integrada que produce papel estucado de calidad, para impresión. A continuación la técnica de optimización realiza una búsqueda dentro del dominio de los posibles resultados, en busca de los mejores resultados que satisfazcan plenamente los objetivos planteados. Dicha técnica de optimización está basada en los algoritmos genéticos como herramienta de búsqueda, junto a un subprograma basado en técnicas de programación matemática para el cálculo de resultados. Un número reducido de resultados son finalmente escogidos y utilizados para modificar la simulación existente fijando la redistribución de los flujos del proceso. Los resultados de la simulación del proceso determinan en último caso la viabilidad técnica de cada reconfiguración planteada. En el proceso de optimización, los objetivos están definidos en una función objetivo dentro de la técnica de optimización. Dicha función rige la búsqueda de resultados. La función objetivo puede ser individual o una combinación de objetivos. En el presente caso, la función persigue una minimización del consumo de agua y una minimización de la pérdida de materia prima. La optimización se realiza bajo restricciones para alcanzar este objetivo combinado en forma de una solución de compromiso. Producto de la aplicación de esta metodología se han obtenido resultados interesantes que significan una mejora del cierre de circuitos y un ahorro de materia prima, sin comprometer al mismo tiempo la operabilidad del proceso producto ni la calidad del papel.
Resumo:
L'experiència de l'autor en la temàtica d'agents intel·ligents i la seva aplicació als robots que emulen el joc de futbol han donat el bagatge suficient per poder encetar i proposar la temàtica plantejada en aquesta tesi: com fer que un complicat robot pugui treure el màxim suc de l'autoconeixement de l'estructura de control inclosa al seu propi cos físic, i així poder cooperar millor amb d'altres agents per optimitzar el rendiment a l'hora de resoldre problemes de cooperació. Per resoldre aquesta qüestió es proposa incorporar la dinàmica del cos físic en les decisions cooperatives dels agents físics unificant els móns de l'automàtica, la robòtica i la intel·ligència artificial a través de la noció de capacitat: la capacitat vista com a entitat on els enginyers de control dipositen el seu coneixement, i a la vegada la capacitat vista com la utilitat on un agent hi diposita el seu autoconeixement del seu cos físic que ha obtingut per introspecció. En aquesta tesi es presenta l'arquitectura DPAA que s'organitza seguint una jerarquia vertical en tres nivells d'abstracció o mòduls control, supervisor i agent, els quals presenten una estructura interna homogènia que facilita les tasques de disseny de l'agent. Aquests mòduls disposen d'un conjunt específic de capacitats que els permeten avaluar com seran les accions que s'executaran en un futur. En concret, al mòdul de control (baix nivell d'abstracció) les capacitats consisteixen en paràmetres que descriuen el comportament dinàmic i estàtic que resulta d'executar un controlador determinat, és a dir, encapsulen el coneixement de l'enginyer de control. Així, a través dels mecanismes de comunicació entre mòduls aquest coneixement pot anar introduint-se als mecanismes de decisió dels mòduls superiors (supervisor i agent) de forma que quan els paràmetres dinàmics i estàtics indiquin que pot haver-hi problemes a baix nivell, els mòduls superiors es poden responsabilitzar d'inhibir o no l'execució d'algunes accions. Aquest procés top-down intern d'avaluació de la viabilitat d'executar una acció determinada s'anomena procés d'introspecció. Es presenten diversos exemples per tal d'il·lustrar com es pot dissenyar un agent físic amb dinàmica pròpia utilitzant l'arquitectura DPAA com a referent. En concret, es mostra tot el procés a seguir per dissenyar un sistema real format per dos robots en formació de comboi, i es mostra com es pot resoldre el problema de la col·lisió utilitzant les capacitats a partir de les especificacions de disseny de l'arquitectura DPAA. Al cinquè capítol s'hi exposa el procés d'anàlisi i disseny en un domini més complex: un grup de robots que emulen el joc del futbol. Els resultats que s'hi mostren fan referència a l'avaluació de la validesa de l'arquitectura per resoldre el problema de la passada de la pilota. S'hi mostren diversos resultats on es veu que és possible avaluar si una passada de pilota és viable o no. Encara que aquesta possibilitat ja ha estat demostrada en altres treballs, l'aportació d'aquesta tesi està en el fet que és possible avaluar la viabilitat a partir de l'encapsulament de la dinàmica en unes capacitats específiques, és a dir, és possible saber quines seran les característiques de la passada: el temps del xut, la precisió o inclòs la geometria del moviment del robot xutador. Els resultats mostren que la negociació de les condicions de la passada de la pilota és possible a partir de capacitats atòmiques, les quals inclouen informació sobre les característiques de la dinàmica dels controladors. La complexitat del domini proposat fa difícil comparar els resultats amb els altres treballs. Cal tenir present que els resultats mostrats s'han obtingut utilitzant un simulador fet a mida que incorpora les dinàmiques dels motors dels robots i de la pilota. En aquest sentit cal comentar que no existeixen treballs publicats sobre el problema de la passada en què es tingui en compte la dinàmica dels robots. El present treball permet assegurar que la inclusió de paràmetres dinàmics en el conjunt de les capacitats de l'agent físic permet obtenir un millor comportament col·lectiu dels robots, i que aquesta millora es deu al fet que en les etapes de decisió els agents utilitzen informació relativa a la viabilitat sobre les seves accions: aquesta viabilitat es pot calcular a partir del comportament dinàmic dels controladors. De fet, la definició de capacitats a partir de paràmetres dinàmics permet treballar fàcilment amb sistemes autònoms heterogenis: l'agent físic pot ser conscient de les seves capacitats d'actuació a través de mecanismes interns d'introspecció, i això permet que pugui prendre compromisos amb altres agents físics.
Resumo:
La gestió de xarxes és un camp molt ampli i inclou molts aspectes diferents. Aquesta tesi doctoral està centrada en la gestió dels recursos en les xarxes de banda ampla que disposin de mecanismes per fer reserves de recursos, com per exemple Asynchronous Transfer Mode (ATM) o Multi-Protocol Label Switching (MPLS). Es poden establir xarxes lògiques utilitzant els Virtual Paths (VP) d'ATM o els Label Switched Paths (LSP) de MPLS, als que anomenem genèricament camins lògics. Els usuaris de la xarxa utilitzen doncs aquests camins lògics, que poden tenir recursos assignats, per establir les seves comunicacions. A més, els camins lògics són molt flexibles i les seves característiques es poden canviar dinàmicament. Aquest treball, se centra, en particular, en la gestió dinàmica d'aquesta xarxa lògica per tal de maximitzar-ne el rendiment i adaptar-la a les connexions ofertes. En aquest escenari, hi ha diversos mecanismes que poden afectar i modificar les característiques dels camins lògics (ample de banda, ruta, etc.). Aquests mecanismes inclouen els de balanceig de la càrrega (reassignació d'ample de banda i reencaminament) i els de restauració de fallades (ús de camins lògics de backup). Aquests dos mecanismes poden modificar la xarxa lògica i gestionar els recursos (ample de banda) dels enllaços físics. Per tant, existeix la necessitat de coordinar aquests mecanismes per evitar possibles interferències. La gestió de recursos convencional que fa ús de la xarxa lògica, recalcula periòdicament (per exemple cada hora o cada dia) tota la xarxa lògica d'una forma centralitzada. Això introdueix el problema que els reajustaments de la xarxa lògica no es realitzen en el moment en què realment hi ha problemes. D'altra banda també introdueix la necessitat de mantenir una visió centralitzada de tota la xarxa. En aquesta tesi, es proposa una arquitectura distribuïda basada en un sistema multi agent. L'objectiu principal d'aquesta arquitectura és realitzar de forma conjunta i coordinada la gestió de recursos a nivell de xarxa lògica, integrant els mecanismes de reajustament d'ample de banda amb els mecanismes de restauració preplanejada, inclosa la gestió de l'ample de banda reservada per a la restauració. Es proposa que aquesta gestió es porti a terme d'una forma contínua, no periòdica, actuant quan es detecta el problema (quan un camí lògic està congestionat, o sigui, quan està rebutjant peticions de connexió dels usuaris perquè està saturat) i d'una forma completament distribuïda, o sigui, sense mantenir una visió global de la xarxa. Així doncs, l'arquitectura proposada realitza petits rearranjaments a la xarxa lògica adaptant-la d'una forma contínua a la demanda dels usuaris. L'arquitectura proposada també té en consideració altres objectius com l'escalabilitat, la modularitat, la robustesa, la flexibilitat i la simplicitat. El sistema multi agent proposat està estructurat en dues capes d'agents: els agents de monitorització (M) i els de rendiment (P). Aquests agents estan situats en els diferents nodes de la xarxa: hi ha un agent P i diversos agents M a cada node; aquests últims subordinats als P. Per tant l'arquitectura proposada es pot veure com una jerarquia d'agents. Cada agent és responsable de monitoritzar i controlar els recursos als que està assignat. S'han realitzat diferents experiments utilitzant un simulador distribuït a nivell de connexió proposat per nosaltres mateixos. Els resultats mostren que l'arquitectura proposada és capaç de realitzar les tasques assignades de detecció de la congestió, reassignació dinàmica d'ample de banda i reencaminament d'una forma coordinada amb els mecanismes de restauració preplanejada i gestió de l'ample de banda reservat per la restauració. L'arquitectura distribuïda ofereix una escalabilitat i robustesa acceptables gràcies a la seva flexibilitat i modularitat.
Necessidades Educativas Especiais/Dificuldade de Aprendizagem Especifica/Dislexia (NEE/DAE/DISLEXIA)
Resumo:
As competências da leitura e escrita são consideradas como objectivos fundamentais de qualquer sistema educativo, ao nível da escolaridade elementar, a leitura e a escrita constituem aprendizagens de base e funcionam como uma mola propulsora para todas as restantes aprendizagens. Problemas de aprendizagem são as muitas varetas de um amplo guarda-chuva. Dislexia é apenas uma delas, mas muito especial. Dislexia é uma dificuldade específica de linguagem, que se apresenta na língua escrita. A dislexia vai emergir nos momentos iniciais da aprendizagem da leitura e da escrita, mas já se encontrava subjacente a este processo. É uma dificuldade específica nos processamentos da linguagem para reconhecer, reproduzir, identificar, associar e ordenar os sons e as formas das letras, organizando-os correctamente. É frequente encontrar outras pessoas com dificuldades semelhantes nas histórias familiares. O importante é aceitar a dislexia como uma dificuldade de linguagem que deve ser tratada por profissionais especializados. As escolas podem acolher os alunos com dislexia, sem modificar os seus projectos pedagógicos curriculares. Procedimentos didácticos adequados possibilitam ao aluno vir a desenvolver todas as suas aptidões, que são múltiplas. Em suma, uma intervenção fundamentada, estruturada, dinâmica e adequada ao aluno disléxico é para a escola uma fonte de valorização do aluno, nas suas capacidades, da turma, na diversificação de aprendizagem e da escola na partilha, na inclusão e no sucesso.
Resumo:
Esta dissertação é muito mais do que um trabalho sobre ajardinamento de edifícios, pois pretende-se que seja uma ferramenta de ajuda em benefício da transformação de milhares de metros quadrados, das coberturas e das fachadas, muitas vezes negligenciados, em espaços verdes públicos beneficiando, não somente, os promotores imobiliários mas, acima de tudo os seus ocupantes e usufrutuários, que desta forma podem tirar partido de novos espaços de estar, ao ar livre. Enquanto a cidade, ao nível térreo, apresenta um aumento de tráfego rodoviário, com inegável poluição e confusão, é possível, desta forma, usufruir de um espaço aberto. Esta dissertação procura estudar os edifícios que já integram o elemento vegetal no seu conceito e que sejam um sucesso na forma como usam o elemento vegetal, de modo a divulgar as técnicas de construção, entender as decisões dos projectistas e o impacto nos utilizadores que habitam e usufruem dos espaços – Análise-Pós-Ocupação. Esta dissertação pretende demonstrar o quanto é importante que as cidades apresentem espaços verdes para uso da população. As zonas verdes existentes nas cidades são inequivocamente um importante indicador da qualidade ambiental existente nessas mesmas cidades. As coberturas e fachadas verdes arrefecem os edifícios, capturam e filtram as águas da chuva, proporcionam habitat à vida selvagem, reduzem o efeito de estufa das cidades, proporcionam uma preciosidade estética, uma experiência recreativa e por vezes comida, para os habitantes das cidades. Pretende-se assim, focar os benefícios humanos, sociais e naturais que se obtêm ao introduzir vegetação nas paredes, terraços, pátios e coberturas dos edifícios. Assim foi considerado útil usar uma metodologia para também analisar o tipo de espécies usadas nos estudos de caso, e determinar a necessidade de uma ferramenta para que a selecção vegetal respeite critérios de biodiversidade e melhor adaptabilidade aos ecossistemas locais, sabendo de antemão que não podem nem pretendem substituir os habitats naturais, que as cidades também podem e devem apresentar.
Resumo:
O estudo realizado abriu discursão sobre a gestão de processos de ativação e recuperação e o conhecimento dos gestores desses processos relacionados com o uso das tecnologias. A análise objetivou observar a qualidade no atendimento das empresas de Telecom aos clientes da região Oeste do Pará, foi observado as estratégias empregadas por essas empresas para que seus serviços pudessem se tornar mais viáveis, certamente que o compromisso e responsabilidade dos gestores das empresas de Telecom tem sido bastante árdua, as problemáticas geográficas da região em estudo são muitas. Um dos problemas impactantes é a via de acesso da cidade mãe até as cidades vizinhas, depende de barcos, lanchas, balsas ou via terrestre; as adversidades são inúmeras e podem modificar comportamento e forma estratégica de se trabalhar nos processos analisados, inclusive em tempos de chuva a situação fica mais comprometedora aos técnicos de ativação e recuperação. Percebe que esses fatores alteram resultados estipulados pelas empresas, isso faz com que os gestores repensem e refaçam suas estratégias nos dois processos. O trabalho avaliou a estratégia usada pelos gestores de TI (Tecnologia da Informação) ou gestores geral das empresas usuárias para melhor atender sua clientela interna, e conseguir discernir as práticas dos serviços Telecom, melhorando o diálogo com os gestores Telecom, aumentando a qualidade e satisfação de seus clientes internos, tendo um equilíbrio de conhecimento nos conceitos tecnológicos.
Resumo:
Este trabalho se insere dentro dos estudos relativos à durabilidade ou integridade fisica da Arquitetura. mais particularmente à durabilidade da aparência das fachadas dos edificios. Estuda a interação que se estabelece entre as partículas de contaminação atmosférica combinadas com o vento e a chuva (condições ambientais), e a morfologia das fà.chadas (geometria e materiais) nas mudanças visuais ou manchamentos que degradam suas aparências. Após sistematização do conhecimento geral sobre os mecanismos e fatores envolvidos na formação desse tipo de manifestação patológica. utiliza um estudo baseado em casos reais para análise das correlações entre as variáveis envolvidas no processo, em nível de condições ambientais locais e caracteristicas da morfologia das fachadas. Os dois edificios escolhidos como estudo de caso estão dentro do centro da cidade de Porto Alegre, mais precisamente em área designada por Centro Histórico, tendo sido construídos na primeira metade do século. O Centro Histórico foi escolhido como área para a seleção dos exemplares analisados por possuir um alto potencial de acumulação de poluentes, exagerando o fenômeno estudado. Os exemplares analisados, apesar da mesma idade, chegaram aos dias de hoje em condições díspares quanto à manutenção da sua aparência. possibilitando a confinnação da influência da sua materialização no seu desempenho frente às condições de exposição aos agentes ambientais envolvidos no processo.
Resumo:
Para tentar elucidar os efeitos da codisposição de embalagens de agrotóxico no âmbito de um aterro sanitário, foram monitoradas oito células de aterro, em tamanho reduzido. O resíduo sólido urbano utilizado nas oito células foi proveniente do município de Porto Alegre, tendo sido caracterizado antes da montagem do experimento. Os reatores foram submetidos a regas semanais por água, simulando uma situação média de chuva para a região. Acompanhou-se a degradação do RSU através de análises do percolado até a fase de fermentação metanogênica. A partir do 250o dia, passou-se a introduzir diferentes doses do agrotóxico Manzateâ 800, sendo três diferentes concentrações em duplicata e dois brancos. O acompanhamento estendeu-se então até os 460 dias. Os resultados de análises do percolado das oito células não apresentaram diferenças estatísticas significativas entre si, antes e depois da aplicação do agrotóxico. Também não foram constatadas mudanças no comportamento da degradação anaeróbia do resíduo ao longo do tempo. As análises de metais realizadas no material sólido coletado ao final do experimento mostraram uma maior concentração de manganês e zinco, metais constituintes do agrotóxico utilizado, nas amostras provenientes dos reatores que receberam cargas do mesmo. Adicionalmente ao experimento, testou-se a influência do Manzateâ 800 em percolado proveniente de célula de aterro sanitário de escala real, também de caráter experimental, contendo apenas RSU. Os testes foram feitos em bateladas, com quatro concentrações diferentes do agrotóxico e um branco e compararam-se as concentrações de DBO5. Os valores obtidos apresentaram diferenças estatísticas significativas, sendo maiores as concentrações de DBO5 das amostras com maior concentração de Manzateâ 800. Tais resultados evidenciam a degradação do agrotóxico pelos microrganismos presentes no percolado.
Resumo:
O presente trabalho apresenta uma revisão bibliográfica sobre a influência da vegetação nos taludes naturais e artificiais. A pesquisa procurou enfocar a captação e a liberação da água pelos vegetais, a influência das raízes pivotantes e fasciculadas como reforço do solo, analisar os efeitos benéficos e adversos da presença da vegetação nos taludes e a recuperação ou estabelecimento de vegetação no solo. Apresenta ainda um estudo de casos de modelos geomecânicos onde avalia a utilização dos tipos de vegetação, levando em conta o comprimento das raízes aplicado para cada situação específica de corte ou de aterro. O trabalho mostra diversos aspectos relacionados à estabilização de taludes através da vegetação, que são contraditórios na literatura. Diversos pontos são levantados para estudo adicional posterior em relação à interceptação da chuva, infiltração e sobrecarga. Os efeitos mecânicos das raízes são evidenciados e sua influência em taludes rasos é demonstrada.
Resumo:
O objetivo desta tese consistiu em avaliar a influência da espacialização de propriedades físicas de bacias hidrográficas, relacionadas à topografia, ao uso do solo, à litologia e à tectônica, e os efeitos na resposta hidrológica. Tais elementos foram desagregados em unidades de resposta hidrológica através de uma estrutura vetorial, com base em técnicas de sensoriamento remoto e sistemas de informação geográfica, que facilitou a modelagem, contemplando os processos hidrológicos verticais e laterais envolvidos. Diferentes níveis de agregação e desagregação espacial alicerçaram a aplicação do hidrograma de Clark para a transformação de chuva em vazão com base nos valores da precipitação efetiva, a partir da utilização do método curva número - CN. A bacia hidrográfica do Rio Ibirapuitã, localizada no Estado do Rio Grande do Sul, Brasil, com área de 5.976 km2, constituiu o estudo de caso, cuja espacialização envolveu um pixel de um km e a utilização do conceito de hidrotopos. As características geológicas evidenciaram a incidência de rochas vulcânicas basálticas (72%), arenitos (24%) e siltito-folhelho (4%), e lineamentos tectônicos, espacializados sob a forma de freqüência, com ocorrência de 47% para a classe forte, 35% para a classe média, 12% para a classe muito forte e o restante 6 % para a classe fraca. A topografia evidenciou um relevo em que as cotas topográficas indicaram valores entre 70 e 230 m. O uso do solo é caracterizado por seis classes, com destaque para campos e pastagens que cobrem cerca de 60% da área, seguindo-se a cultura de arroz irrigado (27%) e matas (11%). Às simulações hidrológicas iniciadas com a influência da litologia, seguiram-se com a incorporação sucessiva dos efeitos da tectônica, da desagregação em duas sub-bacias, da desagregação em cinco sub-bacias. Os resultados obtidos pelas simulações hidrológicas e avaliados pelo coeficiente de eficiência R2 de Nash e Sutcliffe pelo erro médio absoluto (Mean Absolute Error – MAE) e pelos seus incrementos indicaram: a) que os efeitos da variabilidade espacial da litologia constituiu a influência mais significativa (R2 = 0,489, MAE = 0,32); b) que a tectônica foi o segundo fator em importância (R2 = 0,569, MAE = 0,25).; que a desagregação em duas sub-bacias foi a menos importante.(R2 = 0,582, MAE = 0,24); que a desagregação em cinco sub-bacias foi o terceiro fator mais importante (R2 = 0,725, MAE = 0,24).
Resumo:
A presente pesquisa, realizada sob a forma de estudo de caso, objetiva caracterizar as relações existentes entre a estrutura e as estratégias no âmbito da Universidade Regional Integrada do Alto Uruguai e das Missões - URI. A URI caracteriza-se como uma universidade comunitária, multicampi, de característica eminentemente regional e integrada, originada da associação de Escolas Isoladas de Ensino Superior, localizada no Interior do Rio Grande do Sul, com Campi em Erechim, Santo Ângelo, Frederico Westphalen e Santiago, além de extensões em São Luiz Gonzaga e Cerro Largo. As estruturas foram estudadas utilizando-se as variáveis configuração estrutural, níveis de tomada de decisão e complexidade. Já as estratégias foram estudadas no sentido de identificar os tipos predominantes na organização e como estas são formadas. Caracterizada por uma gestão acadêmica única, embora com descentralização administrativa, o estudo conclui que a estratégia inicial de criação da universidade determinou a forma de organização estrutural, e que esta organização, que alocou substantiva autonomia para os Campi, configura-se como uma estrutura organizacional do tipo divisionalizada, com características de burocracia profissional do tipo racionalburocrática. As estratégias podem ser denominadas como do tipo guarda-chuva, em que as linhas gerais são deliberadas, e os detalhes passam a emergir no decorrer do percurso. O estudo propõe uma reconfiguração estrutural e estratégica que respeite as características de individualidade da organização, mas que consiga inseri-la numa perspectiva moderna de organização, buscando criar condições de inserção num novo momento, em que as organizações precisam ser menos hierarquizadas e mais inovativas.
Resumo:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
Resumo:
O presente trabalho é uma análise experimental que procura investigar os efeitos dos fatores carga por eixo, pressão de inflação e tipo de pneu sobre o desempenho de pavimentos. Os dados e informações existentes sobre o quadro de cargas por eixo praticada pela frota de veículos pesados é razoável. A ação conjunta dos referidos fatores é ainda uma questão pouco explorada. Assim, para compensar a escassez de dados sobre pressão de inflação e tipo de construção de pneus utilizados na frota de carga, programou-se uma pesquisa de campo na rodovia estadual RS/240. As informações oriundas da pesquisa demonstram que há um acréscimo generalizado no valor da pressão dos pneus e um aumento de uso dos pneus de fabricação radial em relação aos pneus convencionais. Os dados de campo subsidiaram a programação de um experimento fatorial cruzado executado na Área de Pesquisas e Testes de Pavimentos da UFRGS/DAER. A variação dos níveis dos fatores deu-se através de um simulador linear de tráfego atuando sobre uma pista experimental com 20 m de comprimento por 3,5 m de largura. Tendo como resposta estrutural do pavimento a máxima deflexão superficial recuperável medida com uma viga Benkelmam, determinou-se como significantes os efeitos dos fatores carga por eixo e pressão de enchimento dos pneus. Os cálculos estatísticos indicam também que não há diferenças significativas entre os pneus tipo 9.00R20 e 9.00x20 e que todas interações não exercem efeitos significativos sobre a variável de resposta. Em seqüência, determinaram-se as áreas de contato do rodado duplo do simulador de tráfego com a superfície do pavimento ensaiado para as combinações dos níveis dos fatores. Pode-se, então, comparar área de contato medida com área circular calculada, considerada em muitos modelos de dimensionamento de pavimentos. Relacionou-se a variação da pressão de contato com a deflexão recuperável e procedeu-se uma comparação da mesma com a pressão de inflação nominal dos pneus. Apresenta-se um modelo de análise do desempenho do pavimento em função da carga por eixo e da pressão de inflação, nos limites do experimento. Os dados decorrentes do experimento viabilizaram a determinação dos Fatores de Equivalência de Cargas para os níveis dos fatores, considerando-se o pavimento ensaiado. Avaliou-se, via evolução das deflexões e dos Fatores de Equivalência de Cargas, a redução da vida do pavimento, obtendo-se, para a combinação de níveis mais críticos de carregamento, resultados significativos de até 88 % de redução. Propõe-se, por último, uma formulação para o Fator de Equivalência de Cargas que considere também a ação da pressão de inflação.
Resumo:
Neste trabalho, são apresentados os resultados obtidos em estudos realizados com o propósito de compreender e quantificar o desempenho de estruturas de pavimentos flexíveis em concreto asfáltico submetidas a ensaios acelerados em escala real com um simulador linear de tráfego. Para tornar possível o monitoramento evolutivo da degradação oferecida por pavimentos flexíveis ao longo do tempo, em termos dos mecanismos principais que condicionam a vida de serviço deste tipo de estrutura, foram construídas e instrumentadas seis seções experimentais, das quais duas foram submetidas aos esforços das cargas do tráfego durante o desenvolvimento deste trabalho. O monitoramento das condições funcional e estrutural das pistas experimentais permitiu o estabelecimento de modelos de regressão que reproduzem o desempenho dos pavimentos em termos da evolução do trincamento do revestimento asfáltico, ocorrência de afundamentos em trilha de roda e evolução das tensões verticais no subleito Os pavimentos foram instrumentados com medidores de tensões e deformações instalados em diferentes pontos no seu interior. Analisam-se processos para cálculo de tensões e deformações em estruturas de pavimentos flexíveis com base na interpretação da instrumentação instalada nas pistas experimentais. Foram investigados aspectos relativos à previsão do desempenho estrutural das seções avaliadas, visando trazer subsídios para a estruturação de modelos de previsão de desempenho. Foi confirmada uma tendência logarítmica de crescimento dos afundamentos em trilha de roda com o tráfego acumulado. Conclui-se pela necessidade da identificação de fatores de correção para determinação de tensões através de células de tensão total em solos. Os resultados das avaliações realizadas revelam que os módulos de elasticidade retroanalisados do FWD e da viga eletrônica se mostraram adequados à interpretação do desempenho estrutural dos pavimentos experimentais. Em contrapartida, os módulos de elasticidade derivados de ensaios laboratoriais, realizados em diferentes épocas, não refletiram as condições apresentadas pelos pavimentos no campo.