122 resultados para Mapeamento de preferências
Resumo:
A era do conhecimento, produto da revolução tecnológica e da velocidade das informações, tem apresentado grandes desafios para as organizações atuais que buscam a excelência e a competitividade no segmento de serviços. Este trabalho apresenta um estudo aplicado às agências da Empresa Brasileira de Correios e Telégrafos. Inicialmente, são apresentados alguns conceitos sobre a Gestão do Conhecimento, que constitui uma importante ferramenta para empresas que buscam esta competitividade no mercado onde atuam. Logo após, é feita a proposta e aplicação de um modelo fundamentado de Gestão do Conhecimento e adaptado para a realidade das agências da Empresa Brasileira de Correios e Telégrafos. O modelo de Gestão do Conhecimento apresentado, envolvendo o mapeamento, a construção e a disseminação do conhecimento, representa uma inovação no âmbito da organização em estudo. Ao utilizar as melhores práticas mapeadas e construídas pelos seus próprios funcionários, a Empresa Brasileira de Correios e Telégrafos rompe o paradigma de trabalhar voltada simplesmente para seus processos, passando a valorizar o conhecimento, a informação e o capital humano, que constitui o principal ativo da organização.
Resumo:
O objetivo principal desse trabalho é apresentar uma alternativa para a união de um modelo de versões e dados temporais. O resultado, o Modelo Temporal de Versões – TVM (Temporal Versions Model), é capaz de armazenar as versões do objeto e, para cada versão, o histórico dos valores das propriedades e dos relacionamentos dinâmicos. Esse modelo difere de outros modelos de dados temporais por apresentar duas diferentes ordens de tempo, ramificado para o objeto e linear para cada versão. O usuário pode também especificar, durante a modelagem, classes normais sem tempo e versionamento, o que permite a integração deste modelo com outros modelos existentes. A utilização de um modelo de dados temporal semanticamente rico não requer necessariamente a existência de um SGBD próprio para este modelo. A tendência é implementar o modelo sobre banco de dados convencionais, através do mapeamento das informações temporais para atributos explícitos. Como objetivo complementar, é apresenta do um ambiente para o suporte do TVM e de todas suas características. Especificamente, são detalhados o mapeamento da hierarquia base do modelo para um banco de dados objeto-relacional e sua implementação em um banco de dados comercial. Desse ambiente, foi implementado um protótipo da ferramenta para o auxílio na especificação de classes da aplicação.
Resumo:
o presente trabalho tem como propósito validar o projeto piloto, cujo objetivo é modificar uma realidade existente no método de descarte dos resíduos sólidos gerados na CEASA-POA, objetivando diminuir o desperdício de alimentos e reduzir a poluição ambiental, - - em sua maioria são resíduos de alta qualidade. No modelo atual os resíduos sólidos de hortiftutigranjeiros da CEASA-POA, são quase que integralmente descartados no aterro sanitário, mas que podem e devem ser reprocessados, via novo ciclo produtivo. Em pesquisa realizada, encontramos outros dois tipos de atividades. desenvolvidas, nas demais CEASAS existentes no país, inclusive na CEASA-POA. O reaproveitamento dos resíduos em condições para consumo humano, com a existência de um banco de alimentos, onde os atacadistas doam produtos que não estão em boas condições para venda, por motivos diversos, mas em condições para alimentação humana em Curitiba-PR esta doação sofre um processo de industrialização, resultando na fabricação de uma sopa enlatada, distribuida a entidades assistenciais Existe também, o descarte seletivo dos resíduos para produção de adubo composto orgânico. A partir deste trabalho, apresenta-se uma terceira alternativa, que é o processamento dos resíduos sólidos gerados na CEASA - Porto Alegre-RS, em uma planta piloto, com a finalidade de obter-se um complemento para ser ofertado na alimentação de anlinais. Através de um estudo prévio com o mapeamento de toda a CEASA, consistindo na localização, quantificação e qualificação de todos os resíduos sólidos gerados na CEASA. Os valores obtidos foram ao longo de quatro meses, com a geração média de 30 toneladas de resíduos hortiftutigranjeiros por dia. De posse das informações levantadas, foi proposto este presente projeto piloto, em beneficiar uma pequena parte destes resíduos. O método utilizado para obtenção da ração, foi o processo de desidratação via evaporação térmica, obtendo-se um complemento alimentar, com teor de proteína brota média na ordem de 10,3%, excelente aceitação pelos bovinos e suínos. Assim, espera-se que este projeto piloto, proposto, elaborado e executado com sucesso, justifique a implementação de equipamentos de grande porte, com capacidade de processar o total do descarte, em escala industrial Podendo ser reproduzido nas demais CEASAS de nosso Estado e Pais, evitandose assim o desperdício de alimentos, e aumento do tempo de vida útil dos aterros sanitários com maior preservação do meio ambiente.
Resumo:
O mapeamento da imunorreatividade ao neuropeptídio FMRF-amida no SNC e na musculatura pediosa de Megalobulimus oblongus foi realizado com o objetivo de dar continuidade aos estudos que vem sendo realizados nesta espécie, com o interesse em estabelecê-lo como modelo experimental em estudos neurobiológicos. O neuropeptídio FMRF-amida foi o primeiro peptídio nativo de invertebrados a ser purificado e seqüenciado, a partir do extrato de gânglios cardioativos do molusco Macrocallista nimbosa. Ele atuaria sobre os receptores metabotrópicos, induzindo a abertura dos canais iônicos de K+ tipo S (sensíveis à serotonina (5HT)), hiperpolarizando a membrana celular e assim, aumentando o limiar para o desencadeamento do potencial de ação. A distribuição da imunorreatividade à FMRF-amida em M. oblongus foi investigada empregando-se a técnica imunohistoquímica com anticorpo não-marcado de Sternberger (1979). Todos os gânglios nervosos centrais apresentaram neurônios e fibras FLI (FMRF-amide-like immunoreactivity), assim como suas comissuras, conetivos e a maioria dos nervos emergentes destes gânglios. Nos cortes da musculatura pediosa observou-se também uma intensa imunorreatividade a FMRF-amida. O maior número de neurônios FLI foi encontrado nos gânglios cerebrais com seus tamanhos variando de pequeno a grande. O corpo dorsal apresentou grande quantidade de fibras viii imunomarcadas. No mesocérebro foram detectados alguns agrupamentos FLI junto ao neuropilo e à comissura cerebral e neurônios dispersos na sua porção ântero-medial. O pró-cérebro mostrou-se repleto de neurônios globulosos FLI. Vários agrupamentos foram observados nos lobos pedal, pleural e comissural do pós-cérebro. Nos gânglios pedais houve intensa imunomarcação em agrupamentos neuronais localizados principalmente nas regiões posterior e lateral dos gânglios. Na região anterior foi observado um par de neurônios gigantes FLI. Uma distribuição homogênea de neurônios FLI foi observada por toda a extensão dos gânglios pleurais, com a exceção de apenas um neurônio grande localizado no gânglio pleural esquerdo. A diferença no tamanho dos dois gânglios parietais foi constatada também em M. oblongus. No hemigânglio esquerdo, o menor, foi identificado um neurônio gigante (300 µm). O gânglio direito apresentou um número maior de neurônios FLI, de tamanhos variados. O gânglio visceral foi a estrutura que mais apresentou neurônios grandes e gigantes por toda a sua extensão, com imunorreatividades variáveis. O par de gânglios bucais possuía agrupamentos neuronais FLI médios e grandes. Os neurônios gigantes não se mostraram imunorreativos, ou foram apenas levemente imunomarcados no trofospôngio. Na musculatura pediosa foram observadas fibras nervosas de diferentes calibres nas regiões dorsal, medial e ventral e sobre as células musculares. Identificaram-se gânglios nervosos nos pontos de intersecção dos ramos nervosos e malhas nervosas que formavam plexos nervosos nas regiões ventral e dorsal da musculatura pediosa de M. oblongus.
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
O mundo vem enfrentando a transição de uma economia industrial para uma economia na qual a informação, junto com a terra e o capital, será a força motriz na criação de riquezas e prosperidade. Assim, o sucesso estratégico de muitas empresas vai depender do uso inteligente e da exploração efetiva das possibilidades inerentes à tecnologia da informação. No entanto, as empresas não têm obtido as informações com a qualidade necessária. Isso porque identificar, produzir, selecionar e gerir informações como forma de proporcionar suporte aos processos decisórios tem sido um dos grandes desafios da atualidade.O presente estudo enfoca o processo de identificação de requisitos informacionais destinados ao desenvolvimento de um sistema de apoio a decisões, através de um estudo de caso realizado na Secretaria Municipal da Fazenda do município de Porto Alegre. Ele compreende a etapa de identificação do problema a ser abordado, a definição de modelos conceituais, o mapeamento dos requisitos informacionais das principais atividades identificadas, a comparação destes modelos com os sistemas de informação existentes, e a proposição de mudanças. A metodologia utilizada foi a soft systems (SSM). A SSM é uma metodologia adequada ao tratamento de questões que em geral não se apresentam de forma estruturada. Isto é particularmente importante quando se opera em níveis acima do meramente operacional, em que a questão não é tanto ‘como fazer algo’, mas sim ‘o que deve ser feito’. O uso da SSM mostrou-se adequado e flexível o suficiente para permitir a condução de todas as etapas do trabalho de forma coerente, ao mesmo tempo em que conduziu a resultados que superaram as expectativas iniciais.
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
O dimensionamento de pilares em mineração de carvão, no Brasil, sempre foi considerado conservativo em relação às metodologias e características das camadas que estava sendo lavrada. Torna-se necessário reverter o status-quo existente nesse tema para que a atividade de mineração em carvão se torne mais lucrativa e segura ao mesmo tempo. Problemas geomecânicos, que causaram acidentes fatais, diminuição das reservas de carvão, alto custo de extração e baixa recuperação na lavra são decorrentes ao baixo conhecimento do comportamento geomecânico do maciço rochoso e das metodologias de modelamento geomecânicos. Esse trabalho propõe uma nova técnologia de mapeamento geomecânico e caracterização geomecânica para determinar parâmetros geomecânicos das rochas que formam o sistema piso-pilarteto de uma camada de carvão. O dimensionamento de pilares, então, deve ser baseado nessas informações que alimentam um modelo geomecânico que utiliza métodos numéricos para solucionálos. Dentro do processo de aquisição de informações geomecânicas são propostos novos métodos de mapeamento geomecânico por janela amostral e o cálculo dos índices espaçamento médio e freqüência de descontinuidades. Baseado nas características quantitativas das descontinuidades é proposto o cálculo do RQD* (Rock Quality Designation teórico) para a camada de carvão com base na função de distribuição que se ajusta ao histograma de distribuição do espaçamento de descontinuidades. Esse procedimento refletiu melhor a qualidade do maciço rochoso, baseado no índice RMR (Rock Mass Rating). Considerando-se a qualidade do maciço rochoso e utilizando critérios de rupturas empíricos, foram estimados os parâmetros geomecânicos das rochas que alimentaram os modelos geomecânicos.(Continua)_ Foram gerados modelos numéricos para simular situações reais encontradas na camada Bonito em Santa Catarina e propor um novo paradigma para dimensionamento de pilares, baseado em simulação numérica, considerando todo o entorno do pilar, compreendendo o sistema piso-pilarteto. Os resultados desses modelos são comparados com o monitoramento das deformações dos pilares para confrontar as simulações numéricas com o comportamento geomecânico do maciço insitu. Os resultados apresentaram grande qualidade e concordância com o comportamento dos pilares apresentados no monitoramento das deformações, provando que a metodologia proposta aqui pode ser utilizada em futuros projetos de dimensionamento de pilares.
Resumo:
A economia atual vem exigindo cada vez mais das empresas e instituições uma constante adequação de seus modelos e processos de gestão como forma de adequarem-se a cenários que se alteram em crescente velocidade. Fomentada por essa velocidade, a informação se estabelece como um dos principais insumos dos gestores, tornando-se ao mesmo tempo uma alternativa de gestão e um novo problema a ser gerenciado, qual seja: a sua obtenção e seu uso como diferencial competitivo. Identificar, produzir, selecionar e gerir informação como forma de proporcionar suporte a processos decisórios é um dos grande desafios da atualidade, onde, muitas vezes, Sistemas de Informações (SI) e Tecnologia da Informação (TI) são erroneamente confundidos, da mesma forma que freqüentemente também são confundidos SI voltados a processos e decisões táticas ou operacionais e aqueles destinados a suportar processos decisórios que conduzem a escolhas estratégicas. Sob esse enfoque, o presente estudo avalia o processo de identificação de requisitos informacionais destinados à construção de um SI voltado ao suporte de decisões estratégicas. Avalia desde a etapa de identificação do principal problema a ser abordado até o mapeamento dos requisitos informacionais necessários às principais atividades desenvolvidas. Com o apoio da metodologia de soft systems (SSM) foram constituídos dois grupos de trabalho. O primeiro, composto pelos principais gestores da instituição, com o objetivo de identificar o principal problema a ser tratado por um SI, ou seja, o foco do estudo, e o segundo grupo, constituído a partir das indicações do primeiro, com o objetivo de analisar o problema identificado e mapear a necessidade de informações destinadas à perfeita gestão do referido problema. Durante o desenvolvimento do estudo, identificaram-se, não só os requisitos informacionais necessários à construção do SI, como também um rol de ações e atividades que podem contribuir para o processo de solução do problema priorizado ou melhoria da situação problemática. O uso da SSM mostrou-se adequado e flexível o suficiente para permitir a harmonização das percepções e a identificação dos principais focos a serem abordados. Proporcionou um meio coerente de condução de todas as etapas do trabalho ao mesmo tempo que conduziu a resultados que superaram as expectativas iniciais.
Resumo:
O estudo pretende realizar o mapeamento de aspectos relevantes da estética do corpo na televisão, observando sua representação nos programas jornalísticos, nos programas de entretenimento e nas inserções publicitárias de ambos. Pesquisa o discurso somático tencionando, a partir dele, desvendar um contrato fiduciário no jornalismo, um contrato sedutor na publicidade e hedonista-erotizante no entretenimento, ou seja, o jornalismo buscando a representação do corpo-verdade ou corpo-real, a publicidade representando o corpo-produto e o entretenimento representando o corpo-hedonista. Além de traçar o percurso do corpo na História e estabelecer referenciais teóricos norteadores, a investigação busca, no recorte e análise de programações televisivas, as principais formas de visualização desse corpo – ângulos, ações, tipos, apresentação, localização, adjetivação, acrescentando na interpretação os seus possíveis significados sociais.
Resumo:
Este trabalho tem por objetivo investigar e identificar a influência dos atributos que estruturam a escolha do transportador de carga geral fracionada pelos usuários, em uma determinada rota nacional, baseado na modelagem da demanda. xii A modelagem da demanda é efetuada com base em Modelos Comportamentais Desagregados, utilizando-se as técnicas de Preferência Declarada (Stated Preference), na obtenção dos dados. A determinação das preferências dos decisores são analisadas, buscandose assim quantificar o valor das variáveis que compõem o nível de serviço desejado pelos varejistas usuários. O estudo enfoca o comportamento do varejista usuário de serviços de transporte de cargas com relação a tomada de decisão sobre a transportadora que executará o serviço de transporte de carga. Esta tomada de decisão do varejista usuário leva em consideração que cada operador valoriza os atributos em diferentes graus e que estes fazem parte do nível de serviço de cada transportadora. As técnicas de Preferência Declarada forneceram dados para estimar as funções de Utilidade levando em consideração os diferentes níveis de atributos de cada transportadora. A partir da função de Utilidade de cada transportadora, é estimada a probabilidade de escolha de cada transportadora. A modelagem permite a realização de simulações, a partir de alterações no grau dos atributos das variáveis do modelo, na qual se determinará a parcela de mercado de cada transportadora e a sua respectiva participação no mercado em estudo. Dentre os principais resultados, pode se observar que a modelagem da demanda em transporte de cargas, apesar de pouco utilizada, é coerente com a realidade analisada, validando a metodologia utilizada neste estudo.
Resumo:
Este estudo teve por objetivo estimar, pelo modelo CENTURY, a alteração no estoque de carbono orgânico (CO) de solos do Planalto do Rio Grande do Sul durante o período de expansão da agricultura e o potencial de recuperação do estoque de CO através de diferentes sistemas de manejo. Foram utilizados solos de cinco Unidades de Mapeamento (UM), sob vegetação original de campo e floresta: LATOSSOLO VERMELHO Distófico típico (UM Cruz Alta e Passo Fundo), LATOSSOLO VERMELHO Distroférrico típico (UM Santo Ângelo e Erechim) LATOSSOLO BRUNO Alumínico câmbico e (UM Vacaria). Avaliou-se a expansão da agricultura nas UM, a variação no conteúdo de CO dos solos por decomposição microbiana e erosão e a emissão ou seqüestro de CO2 em cenários de manejo com diferentes adições de C, métodos de preparo do solo e perdas de solo por erosão. Durante o período de expansão da agricultura (1900-1980), o uso de sistemas de cultura com baixa adição de C, pousio, queima de resíduos e preparo convencional do solo, ocasionou reduções estimadas de 31 a 45% no estoque original de CO dos solos. Com a melhoria nos eventos de manejo a partir de 1981, houve a recuperação parcial no estoque de CO. Considerando o balanço de CO e CO2 para a região em estudo (52506 km2), o cenário de manejo 1 (PC trigo/soja com queima) apresentou perda total estimada de 159517,0x103 Mg de CO e emissão de 299562,10x103 Mg de CO2 à atmosfera. Nos demais cenários, foram estimados incrementos de CO em relação ao cenário 1, atingindo, em 2050, valores correspondentes a 68,5% (cenário 2 - PR trigo/soja sem queima), 92,7% (cenário 3 - PD trigo/soja, aveia/soja, aveia/milho) e 98,1% (cenário 4 - PD trigo/soja, aveia/milho) do estoque original de CO. Devido a alta adição anual de C (6,0 Mg ha-1) e uso do plantio direto, o cenário 4 apresentou seqüestro líquido de 52173,32x103 Mg de CO2.
Resumo:
O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.
Resumo:
Há aproximadamente meio século, as praias situadas a sotamar do Porto do Mucuripe, em Fortaleza, vem sofrendo intensos processos erosivos, creditados em grande parte à construção e ampliação deste porto. O fato é que o acentuado crescimento urbano da capital cearense ocasionou a fixação de dunas e a quebra do fluxo longitudinal de sedimentos em seu litoral, resultando no recuo da linha de costa e na necessidade de intervenção antrópica por meio de obras rígidas que viessem a garantir a preservação da infra-estrutura existente nos trechos mais afetados. Como conseqüência da fixação das praias, o suprimento de material sedimentar passou a ficar retido, enquanto que o potencial de transporte das ondas se preservou. A quebra deste equilíbrio dinâmico acarretou a transferência dos processos erosivos para as praias adjacentes, o que tornou-se um problema cada vez maior, pois as soluções adotadas nestas praias eram idênticas às anteriores. As conseqüências deste processo para uma cidade como Fortaleza, onde o turismo é uma das principais fontes de renda, são graves, dado que como resultado final, encontramos longos trechos de praias com a balneabilidade comprometida e perda de qualidade visual. O litoral situado a oeste da capital é limitado à direita pela foz do Rio Ceará e à esquerda por um promontório rochoso, onde situa-se a Ponta do Pecém. Este trecho compreende aproximadamente 30 km de praias arenosas, com granulometria média e fina, e com ondas incidindo sobre a costa de forma obliqua, o que as torna o principal mecanismo de transporte de sedimentos. A ocupação urbana concentra-se principalmente nas praias mais próximas a Fortaleza, onde observa-se ainda, o afloramento de rochas de praia e grande perda de material sedimentar, fornecendo indícios da transferência dos processos erosivos da orla marítima da capital para estas praias. Com a conclusão das obras do Porto do Pecém e de um pólo industrial que visa desfrutar da localização estratégica deste porto, é natural que ocorra uma intensificação nos processos de ocupação urbana das praias próximas à área. Tal constatação motivou um trabalho de modelagem da dinâmica desta zona com o objetivo de nortear um plano de uso e ocupação das áreas localizadas próximas à praia, de forma que se possa prever o comportamento da linha de costa e evitar que sejam repetidos certos equívocos como a construção em zonas de forte dinâmica e a fixação das fontes primárias de fornecimento de sedimentos, que são as dunas frontais. Dada a disponibilidade de dados, bons processadores e aos custos significativamente reduzidos da modelagem numérica, adotou-se o pacote GENESIS – RCPWAVE, que além de ser de domínio público, é a base do sistema de modelagem de linha de costa adotado pelo CERC (Coastal Engineering Research Center), U.S.A., para aplicações em costa aberta, em regiões sujeitas às intervenções humanas. A calibração do modelo se fez considerando as linhas de praia medidas em 1974 pela DHN e em 2001 com o uso de GPS. Os dados de onda utilizados foram obtidos por um ondógrafo direcional do tipo Waverider, instalado a uma profundidade de 18 metros nas proximidades da Ponta do Pecém. Os dados relativos ao modelo conceitual dos processos predominantes na região, como: contribuições externas, variação granulométrica e variações sazonais de perfis foram obtidos de levantamentos bibliográficos de trabalhos anteriores. Por último, informações relativas às estruturas existentes e seu comportamento, ao afloramento de formações rochosas e o último levantamento da linha de praia, foram obtidas através de trabalhos de campo. De uma forma geral, o comportamento previsto pelo modelo mostrou-se semelhante ao observado nos diferentes levantamentos. Considerando-se as limitações dos processos envolvidos no levantamento de dados, onde tanto a carta da DHN quanto o mapeamento por satélite estão sujeitos a imprecisões e ainda, que a série de dados confiáveis de ondas para a região possuía apenas dois anos, é importante notar que, em linhas gerais, a formulação matemática do modelo representou satisfatoriamente os processos envolvidos. Os resultados fornecidos possibilitam a extrapolação da evolução da linha de costa e indicam pontos de provável recuo ou avanço da praia, norteando a sua ocupação. A ferramenta gerada proporciona ainda a avaliação do impacto de intervenções por meio de estruturas rígidas ou engordamento de praia ao longo do tempo e gera uma estimativa dos valores de deriva litorânea para os diferentes trechos de praia, possibilitando avaliar os efeitos das intervenções nas praias adjacentes.
Resumo:
Levando-se em consideração que a avaliação docente é um dos pontos que constituem o processo de Avaliação Institucional nas Universidades, e que a maioria das instituições atualmente revelam preocupação crescente com o Exame Nacional de Cursos (ENC), com as Condições de Oferta, com a busca da melhoria da qualidade na prestação dos serviços, este trabalho possui como objetivos: (i) conhecer o perfil dos discentes e docentes de cursos de Administração que atuam em duas típicas Instituições de Ensino Superior (IES) de Curitiba; (ii) conhecer a percepção dos alunos em relação a esses profissionais e; (iii) identificar quais dessas dimensões os alunos e os próprios docentes consideram mais importantes. Visando atingir esses objetivos, foi planejada uma pesquisa utilizando questionários específicos aplicados aos docentes e aos discentes das IES pesquisadas. Os questionários permitiram identificar o perfil de docentes e discentes, os atributos que eles consideram mais importantes para o aprendizado, bem como suas preferências no que conceme a formas de ensino e formas de avaliação. Em função desses resultados, foram elaboradas algumas recomendações, as quais podem auxiliar na melhoria dos cursos pesquisados. Essas recomendações contemplam: (i) uso de novas técnicas didáticas; (ii) fomento à participação dos alunos em atividades extracurriculares; (iii) uso de novas formas de avaliação; (iv) melhora na transmissão de conhecimentos práticos; (v) melhorias na didática e motivação transmitida aos alunos; (vi) formação de doutores; e (vii) incentivo à pesquisa.