898 resultados para Princípio da moralidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na realização de atividades físicas o corpo humano exerce forças contra o solo. Em atividades tais como correr e saltar as forças são exercidas através dos pés. Atualmente, sabe-se que estudos da magnitude e direção destas forças, e das maneiras de suas mudanças no tempo, fornecem valiosas informações sobre a performance alcançada no movimento, podendo indicar medidas corretivas que possam aprimorá-la. Na obtenção destas variáveis determinantes no desempenho do movimento utilizam-se instrumentos denominados plataformas de forças, capazes de medir a força de ação realizada sobre sua superfície de contato, e o respectivo momento, permitindo a determinação das três componentes ortogonais de força (Fx, Fy, Fz) e os momentos em torno dos três eixos ortogonais (Mx, My, Mz) simultaneamente. Este trabalho descreve o desenvolvimento teórico de uma plataforma de forças específica para aplicação na decolagem do salto em distância, bem como as alternativas de projeto geradas neste desenvolvimento. Foram buscadas soluções para a realização dos experimentos sob condições naturais de treinamento, visando a construção do instrumento e sua instalação na pista de saltos atléticos. Para isso é proposta a substituição da tábua de impulsão original pela plataforma de forças desenvolvida. Nas alternativas geradas foi utilizado o princípio extensométrico resistivo de medição de forças, que representa uma diminuição substancial no custo de manufatura estimado frente às unidades comercialmente avaliadas. Nestas alternativas, os sensores resistivos “strain gages” são localizados estrategicamente em estruturas metálicas que sustentam uma tampa de material composto com a função de superfície de contato Para a análise estrutural das alternativas estudadas foi utilizado o Método dos Elementos Finitos. Para comparar e escolher a melhor entre as diversas alternativas, foram propostos índices de desempenho. Ao final do trabalho são apresentadas conclusões sobre a metodologia empregada no estudo realizado e sobre o novo modelo de plataforma de forças desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tecnologia de workflow vem apresentando um grande crescimento nos últimos anos. Os Workflow Management Systems (WfMS) ou Sistemas de Gerenciamento de Workflow oferecem uma abordagem sistemática para uniformizar, automatizar e gerenciar os processos de negócios. Esta tecnologia requer técnicas de engenharia de software que facilitem a construção desse tipo de sistema. Há muito vem se formando uma consciência em engenharia de software de que para a obtenção de produtos com alta qualidade e que sejam economicamente viáveis torna-se necessário um conjunto sistemático de processos, técnicas e ferramentas. A reutilização está entre as técnicas mais relevantes desse conjunto. Parte-se do princípio que, reutilizando partes bem especificadas, desenvolvidas e testadas, pode-se construir software em menor tempo e com maior confiabilidade. Muitas técnicas que favorecem a reutilização têm sido propostas ao longo dos últimos anos. Entre estas técnicas estão: engenharia de domínio, frameworks, padrões, arquitetura de software e desenvolvimento baseado em componentes. Porém, o que falta nesse contexto é uma maneira sistemática e previsível de realizar a reutilização. Assim, o enfoque de linha de produto de software surge como uma proposta sistemática de desenvolvimento de software, baseada em uma família de produtos que compartilham um conjunto gerenciado de características entre seus principais artefatos. Estes artefatos incluem uma arquitetura base e um conjunto de componentes comuns para preencher esta arquitetura. O projeto de uma arquitetura para uma família de produtos deve considerar as semelhanças e variabilidades entre os produtos desta família. Esta dissertação apresenta uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow. Esta arquitetura pode ser usada para facilitar o processo de produção de diferentes sistemas de gerenciamento de workflow que possuem características comuns, mas que também possuam aspectos diferentes de acordo com as necessidades da indústria. O desenvolvimento da arquitetura proposta tomou como base a arquitetura genérica e o modelo de referência da Workflow Management Coalition (WfMC) e o padrão de arquitetura Process Manager desenvolvido no contexto do projeto ExPSEE1. O processo de desenvolvimento da arquitetura seguiu o processo sugerido pelo Catalysis com algumas modificações para representar variabilidade. A arquitetura proposta foi descrita e simulada através da ADL (Architecture Description Language) Rapide. A principal contribuição deste trabalho é uma arquitetura de linha de produto para sistemas de gerenciamento de workflow. Pode-se destacar também contribuições para uma proposta de sistematização de um processo de desenvolvimento de arquitetura de linha de produto e também um melhor entendimento dos conceitos e abordagens relacionados à prática de linha de produto, uma vez que esta tecnologia é recente e vem sendo largamente aplicada nas empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A disputa por um filho é uma situação tratada nas instituições judiciais através da nomeação do guardião mais apto para permanecer com a criança ou através de acordos entre as partes envolvidas, sempre considerando o princípio de priorizar o interesse superior da criança. Este estudo tem como objetivo elucidar aspectos da condição psicopatológica da disputa por um filho e suas repercussões no processo identificatório da criança. Para tanto, a pesquisadora partiu da pesquisa psicanalítica e da proposta de construção de caso psicanalítico para elaborar um ensaio metapsico(pato)lógico do caso. Foram realizados três estudos enfocando a criança na situação de disputa entre a família biológica e a família guardiã, na disputa entre uma dupla e mediante a separação conjugal. Ao finalizar o estudo levantou-se a questão sobre a importância da retomada do processo identificatório da criança disputada mediante a firmação do contrato identificatório. A posição dos pais na disputa pelo filho caracterizou a necessidade de exposição de um risco de perda deste filho e do desejo pelo mesmo. O compromisso identificatório da criança deverá ter suas cláusulas revistas e o desejo de um filho, para os pais, incluirá a assunção de um filho desejado e do não desejo de desejo por este filho. A possibilidade de mudança surgirá com a revelação de uma demanda que se autoriza e com a nova posição, que só poderá ser assumida pela criança com a participação da tolerância e flexibilidade daqueles que são os signatários de seu compromisso identificatório. O processo identificatório da criança, nos casos de disputa de guarda, terá a possibilidade de ser retomado através de sua mediação em situação psicanalítica de tratamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A porção média da Planície Costeira do Rio Grande do Sul constitui-se numa região crítica em termos de planejamento de uso devido a uma estreita conjunção de fatores de ordem econômica, ambiental, social e histórico-cultural, estabelecida, em princípio, pela presença de um importante complexo estuarinolagunar. Nessa área, bem como no restante da zona costeira do Brasil, as diretrizes para o uso sustentável dos recursos naturais estão materializadas em leis e programas governamentais, dos quais o Plano Nacional de Gerenciamento Costeiro representa a linha mestra para as ações nos três níveis de governo. A exploração de recursos minerais nessa região é uma atividade antiga, relativamente de pouca expressão no contexto estadual, mas de grande significado social, econômico e cultural em nível regional, sustentando a demanda de vários municípios da região. Caracteriza-se principalmente pela exploração de areia e argila para uso na construção civil e para aterro, apresentando ainda potencialidade alta para exploração de turfa e minerais pesados. Com o objetivo de contribuir para a solução dos conflitos gerados por um modelo de exploração mineral ainda inconsistente com as demandas atuais de conservação e desenvolvimento, realizou-se uma análise ambiental integrada da área dos entornos do estuário da Laguna dos Patos, compreendendo os municípios de Pelotas, Rio Grande e São José do Norte. A análise considerou os marcos legais e institucionais, as características diferenciadas do meio físico-natural, os processos econômicos, sociais e culturais, as características da atividade de mineração na região e suas repercussões e interações no sistema ambiental como um todo. As informações disponíveis permitiram a geração de um banco de dados no Sistema de Informações Geográficas IDRISI 32®, na escala 1: 100.000, o qual forneceu a base para a análise interpretativa. Utilizando técnicas de geoprocessamento obteve-se uma síntese dos diagnósticos realizados através da definição, mapeamento e descrição de 19 unidades de planejamento, denominadas unidades geoambientais, posteriormente detalhadas em 108 unidades físico-naturais. A síntese de uma grande quantidade de dados, espacializada na forma de um mapa digital, auxiliou a definição dos critérios para elaboração de um mapa de vulnerabilidade ambiental relativa para a região. Este, aliado ao plano de informação que contém todas as áreas com restrição legal de uso, possibilitou o mapeamento das áreas mais críticas para gestão ambiental. Adicionalmente, considerando a potencialidade de recursos minerais para uso na construção civil e para aterro, os critérios que determinam a maior ou menor atratividade econômica para a sua exploração e as áreas mais críticas em termos de gestão ambiental, elaborou-se um mapa prescritivo que indica as áreas que devem ser consideradas prioritárias para um gerenciamento preventivo. Finalmente, a análise ambiental integrada permitiu a elaboração de um modelo de um plano de gestão para o setor, onde é apresentada uma estrutura seqüencial e ordenada do plano, exemplificada, em cada passo, com as informações disponíveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente tese é o resultado final de um trabalho prospectivo evolutivo que buscou apresentar uma nova filosofia de tratamento na instabilidade femoropatelar, voltada para a reconstrução anatômica do ligamento patelofemoral medial. Essa abordagem terapêutica mostrou-se extremamente eficiente, com poucas complicações e com uma recuperação bastante rápida, o que permite um retorno às atividades profissionais ou discentes dos pacientes num espaço de tempo mais curto dos que nas técnicas convencionais. Em um primeiro trabalho foi realizada a reconstrução do ligamento patelofemoral medial (LPFM) com uso de enxerto de poliéster, e neste foi utilizado enxerto livre do tendão do semitendinoso. Como não houve diferença significativa entre os dois, concluiu-se que o princípio defendido de reconstrução do ligamento patelofemoral mediaal é mais importante que a escolha do enxerto a ser utilizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é calcular, pela primeira vez na literatura, os fluxos de emprego (job flows) na indústria gaúcha nos anos 90 e sua relação com o processo de abertura comercial no período. O trabalho propõe o estudo do emprego na indústria através do comportamento das variações do emprego nas empresas individualmente, para identificar a heterogeneidade de comportamento dentro dos setores, ao invés do uso de médias agregadas, que implicitamente supõe um comportamento homogêneo das empresas. Denominamos fluxos de emprego as taxas de criação e destruição do emprego, estimadas em 5,15% e 6,42% ao ano, em média, respectivamente. Destas obtemos a taxa líquida de crescimento do emprego e a taxa de realocação bruta do emprego, estimadas em –1,27 e 11,57%, respectivamente. Em todos os anos da década houve criação e destruição de emprego simultaneamente, sugerindo uma grande heterogeneidade na dinâmica do emprego nas empresas. A perda média de 1 emprego em 100 por ano no período é resultado da abertura de 5 postos e destruição de 6 postos. Além dos fluxos, este trabalho estima e analisa o impacto do câmbio e da abertura comercial do país nestas taxas. As regressões indicaram para, dada uma depreciação de 1% do câmbio, um impacto de 0,10% sobre a criação de emprego e um impacto, simétrico, de –0,097% sobre a destruição de emprego no trimestre seguinte Por outro lado, a abertura comercial ocorrida nos anos 90, medida através do grau de abertura setorial, não se mostrou significativo para explicar as variações da criação de empregos e da realocação, tendo um efeito positivo na variação líquida e negativo na destruição de postos de trabalho na indústria gaúcha nos anos 90, liderado, a princípio, pelas exportações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo é um contraponto e uma contribuição à Audiência Pública sobre a “Reorientação Estratégica das Instituições Financeiras Públicas Federais – IFPF’s” proposta pelo Ministério da Fazenda, em junho de 2000, após diagnóstico da participação da Estado no Sistema Financeiro Nacional pelo consórcio Booz- Allen & Hamilton – Fundação Instituto de Pesquisas Econômicas da Universidade de São Paulo (FIPE). A pesquisa qualitativa, tipo estudo de caso explanatório, insere, a princípio, os aspectos teóricos e a evolução dos Sistemas Financeiros como fundamentos às participações históricas do Estado e das IFPF´s na economia. A partir da resenha do trabalho em Audiência Pública faz-se um embate das idéias dos economistas defensores do Estado mínimo e daqueles economistas favoráveis e simpatizantes à continuidade das IFPF’s sob domínio público. Centrando-se a discussão em argumentos históricos, econômicofinanceiros e organizacionais, conclui-se o estudo com a apresentação de uma agenda alternativa, às propostas contidas no relatório em Audiência Pública, sugerindo a permanência do Estado na economia, ajustes patrimoniais, ampliação da rede de varejo das IFPF’s, incentivo e incremento em operações de Project Finance e, principalmente, uma gestão pública para estatais residuais que minimize a ação do fisiologismo neocorporativista mediante governança corporativa socialmente responsável.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A dissertação analisa o posicionamento dos médicos gaúchos frente ao princípio da liberdade profissional que vigorava no Rio Grande do Sul durante a Primeira República. A Constituição estadual de 1891 permitia o exercício da medicina por indivíduos não portadores de diploma acadêmico. Neste contexto, o estudo demonstra que os médicos diplomados procuravam legitimar cientificamente suas posições nas instituições que ocupavam. A Faculdade de Medicina de Porto Alegre ocupou um lugar privilegiado neste processo de afirmação da supremacia do conhecimento científico face a práticas de cura derivadas de outros princípios. Desta maneira, a dissertação acompanha a produção intelectual, expressa em conferências e artigos publicados na imprensa especializada, de um grupo de médicos ligados a esta instituição. Descreve também a organização dos serviços de saúde pública no Estado e o crescente envolvimento do discurso médico com as questões sociais. O conceito de “medicina social”, veiculado pelos médicos no período analisado, reuniu as noções de higiene, eugenia e educação sanitária e contribuiu para a formulação de normas para regular a vida nas cidades. Através da defesa da medicina social foi possível articular os interesses corporativos aos da sociedade como um todo, apresentando a regulamentação profissional como uma necessidade social.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os trabalhos da presente pesquisa nascem do deslocamento de alguns objetos do cotidiano doméstico (agulhas de costura, botões, alfinetes, zíperes e pequenos potes) para o contexto da produção em artes visuais. Desta maneira, tais objetos se colocam potencializados para novas possibilidades de apresentação. Para isso, sacrifica-se a capacidade destes utilitários de realizar a função, às vezes invertendo e outras vezes anulando-a. O resultado é um conjunto no qual se estabelece uma relação de estranhamento resultante de acumulações e repetições de elementos, que inseridos no próprio tempo do trabalho criam questões que podem contribuir com o universo da arte contemporânea. Neste contexto, criou-se uma nova relação espacial que privilegia, as melhores condições de visualidade do fruidor. Não só é evidente a importância do objeto como algo expressivo em si na medida em que cada peça que vai sendo construída no decorrer do tempo, mas também o resgate de pequenos gestos, os quais envolvidos na construção das peças determinaram estruturas que a princípio estariam soltas no espaço. Mesmo lançando mão de recursos externos de sustentação, ficou marcada a grande fragilidade das montagens. Elas acabam por serem apenas encaixadas e depositadas sobre suas bases. Decorrentes deste estudo obteve-se os seguintes trabalhos: Agulhas por Um Fio, Feixes, Desfecho, Hórtebra, Germinando e o vídeo Permanência, cujas análises deram margem para que se pudesse discutir o objeto cotidiano na arte, pelo processo de repetição, além da consciência do tempo, estranhamento e a fragilidade. Estes processos pretendem evidenciar gestos simples e o olhar dedicado às coisas do cotidiano.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda as relações entre o ambiente sociomoral e o desenvolvimento da autonomia das crianças de uma Escola da comunidade do Município de Porto Alegre-RS. O objetivo é descrever o ambiente sociomoral de cada sala de aula, construído nas relações interindividuais entre professores e alunos, e analisar o desenvolvimento da autonomia das crianças através do estudo do juízo moral. A pesquisa teórica fundamenta-se em vários estudos e abordagens sobre a moralidade e, em especial, nos estudos da Epistemologia Genética de Jean Piaget sobre o juízo moral de crianças e sobre a gênese e o desenvolvimento da inteligência. A parte empírica do trabalho consiste em pesquisa sócio-antropológica na Escola, com enfoque sobre a sala de aula. Buscou-se conhecer o cotidiano da instituição através de observações, conversas, participação em reuniões e entrevistas. Foram realizadas entrevistas semi-estruturadas com os professores e com a direção, com o intuito de apreender o discurso pedagógico vigente na Escola. A análise de documentos oficiais da Escola forneceu informações sobre os objetivos, normas e procedimentos da instituição. As observações em sala de aula, assim como as entrevistas com as professoras, possibilitaram a elaboração de categorias de análise do ambiente sociomoral de cada sala sob os pontos de vista da atmosfera, do caráter do jogo, da abordagem de conteúdos ou da prática pedagógica e, principalmente, das relações entre professor e aluno Utilizou-se, ainda, o método clínico de Piaget na investigação do juízo moral das crianças, com o intuito de descrever as tendências gerais do desenvolvimento moral nesse ambiente sociomoral específico, privilegiando-se, entretanto, as relações em sala de aula. Os resultados gerais da pesquisa mostram tanto o progresso da autonomia das crianças em função de um ambiente sociomoral cooperativo em sala de aula como sugere uma nova abordagem para as relações interindividuais na escola.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta e discute uma estratégia e discute uma estratégia inédita para o problema de exploração e mapeamento de ambientes desconhecidos usandoo robô NOMAD 200. Esta estratégia tem como base a solução numéricqa de problemas de valores de contorno (PVC) e corresponde ao núcleo da arquitetura de controle do robô. Esta arquitetura é similar à arquitetura blackboard, comumente conhecida no campo da Inteligência Artificial, e é responsável pelo controle e gerenciamento das tarefas realizadas pelo robô através de um programa cleinte. Estas tarefas podem ser a exploração e o mapeamento de um ambiente desconhecido, o planejamento de caminhos baseado em um mapa previamente conhecido ou localização de um objeto no ambiente. Uma características marcante e importante é que embora estas tarefas pareçam diferentes, elas têm em comum o mesmo princípio: solução de problemas de valores de contorno. Para dar sustentabilidade a nossa proposta, a validamos através de inúmeros experimentos, realizados e simulação e diretamente no robô NOMAD 200, em diversos tipos de ambientes internos. Os ambientes testados variam desde labirintos formados por paredes ortogonais entre si até ambientes esparsos. Juntamente com isso, introduzimos ao longo do desenvolvimento desta tese uma série de melhorias que lidam com aspectos relacionados ao tempo de processamento do campo potencial oriundo do PVC e os ruídos inseridos na leitura dos sensores. Além disso, apresentamos um conjunto de idéias para trabalhos futuros.