884 resultados para Princípio da legalidade
Resumo:
O objeto desse estudo foram vidas humanas, sujeitos auto-eco-organizadores que possuem em comum o trabalho com o lixo. Seu suporte empírico foram as experiências de trabalho de catadores do antigo lixão da zona norte de Porto Alegre, hoje organizados em associação, a Associação dos Recicladores de Resíduos da Zona Norte. A partir desse universo, buscou-se compreender como esta atividade acabou sustentando – ou ressignificando - certos valores que, mesmo sem eliminá-la, transcenderam a vida individual, culminando num processo educativo de todos os envolvidos; como esses sujeitos, no convívio cotidiano acabaram tecendo um movimento transformador e organizador de mudanças transcendendo à ordem da sua realidade prática. Ou seja, como, ao coexistirem coletivamente com representações de desordem (o lixo, o mal, a miséria), subverteram o esperado e anunciado, explorando possibilidades e organizando-se a partir delas As experiências dos recicladores culminaram na construção e vivência de um conhecimento-emancipação, oriundo das interações, da possibilidade obsedante do estar-junto (Maffesoli,1996). A ajuda associativa, a divisão do trabalho e as sociabilidades de vizinhanças interagiram na emergência de um sujeito ético, político e estético, detentor de uma subjetividade não conformista. Tais experiências - vividas dentro de um contexto em que predominam determinadas representações de moral, do belo e de poder – transformaram o acontecer cotidiano numa instância de alianças “entre o bem e o mal, da conformidade e do nefasto, da ordem e da desordem” (Balandier,1997a:102), onde o todo, que circunda o significado do lixo, se configura enquanto um valor meta-positivo, capaz de contribuir não apenas na emancipação individual, mas também coletiva A vivência e a compreensão dessas experiências oportunizaram que as aproximações teóricas sobre homem e trabalho direcionassem à idéia de que, no âmago dessa socialidade, estão presentes o princípio da solidariedade (pela dimensão ética), o princípio da participação e do redimensionamento do espaço de ação da cidadania (pela dimensão política) e o princípio do prazer, da emoção compartilhada (pela dimensão da estética), transformando o estar-junto cotidiano como aquilo que promove o enraizamento, permitindo um entrecruzamento de microvalores sejam eles sociais, culturais ou produtivos.
Resumo:
O presente trabalho visou a utilização da energia solar na cura de pré-fabricados de concreto. Para tanto, foi utilizado dois modelos. O primeiro modelo constou da utilização de coletores solares planos, ligados até uma câmara de cura por um sistema de dutos; A radiação direta do sol incide sobre os coletores, que acumulam energia, que é removida pela água que circula pelos mesmos, levando essa energia através do sistema de distribuição (dutos) até a câmara de cura; Essa câmara, possui uma pista metálica em sua base, onde a energia é cedida para os pré-fabricados de concreto; Esse ciclo de captação distribuição e consumo é repetido a cada hora do dia, onde há radiação solar; Um segundo modelo constou de uma heliocâmara, princípio de um destilador solar convencional, onde a radiação incide diretamente sobre a câmara de cura; A radiação, penetra pela cobertura e forma-se um efeito estufa no interior da câmara, aquecendo seu interior e consequentemente os pré-fabricados de concreto; Avaliou-se os dois sistemas para as estações de verão e inverno na cidade de Porto Alegre (dias típicos) e concluiu-se que para o verão, tanto o sistema com coletores solares quanto o sistema com heliocâmaras poderão ser utilizados. No período de inverno, nenhum destes sistemas serão satisfatórios, porém suas utilizações serão viáveis em conjunto com uma fonte de energia alternativa; A energia solar constitui-se assim numa importante fonte de energia a ser utilizada em pré-fabricados de concreto.
Resumo:
No presente trabalho apresenta-se um estudo numérico do escoamento de ar em um ambiente interno tridimensional típico, sujeito a um sistema de ventilação por deslocamento. O estudo numérico consiste na obtenção dos campos de velocidade e temperatura presentes no interior deste ambiente. A determinação dos campos de velocidade e temperatura é necessária na avaliação precisa das condições de conforto térmico, produzidas por um determinado sistema de climatização. Este tipo de estudo não serve somente para determinar a viabilidade da aplicação de um determinado sistema de distribuição de ar, mas através dele também se pode determinar as condições ótimas de uso deste sistema. De forma crescente observa-se o interesse dos projetistas de ar condicionado em aperfeiçoar as suas técnicas de cálculo, de modo que a simulação numérica poderá tornar-se uma técnica usual em pouco tempo. Atualmente duas técnicas estão disponíveis para o estudo do escoamento de ar em ambientes internos: investigação experimental e simulação numérica. Em princípio, medidas diretas dão informações mais realísticas relativas ao escoamento do ar interno, contudo, medições experimentais são muito caras e consomem muito tempo, inviabilizando a sua aplicação caso a caso. Devido às limitações da investigação experimental e à disponibilidade de computadores cada vez mais rápidos, o uso da simulação numérica surge como uma opção considerável nos dias de hoje O método de solução numérica, utilizado no presente trabalho, baseia-se na resolução das equações de conservação de massa, de quantidade de movimento e de energia, em um domínio de cálculo discretizado com o uso do Método dos Volumes Finitos. Os efeitos da turbulência são levados em conta através da utilização do modelo de turbulência K- ε e de um modelo de turbulência simplificado. Resultados bem convergidos para o problema abordado somente são obtidos com a utilização do modelo de turbulência simplificado. As simulações numéricas apresentadas no presente trabalho foram realizadas com o uso do código Fluent. Com base na comparação dos resultados numéricos obtidos no presente trabalho e os resultados experimentais de Yuan et al., 1999a, pode-se concluir que o modelo simplificado é adequado, ao menos provisoriamente, para determinar a distribuição de velocidade e de temperatura no escoamento de ar em ambientes internos.
Resumo:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
Resumo:
O treinamento de força é praticado por adultos e idosos que visam ao melhoramento do rendimento desportivo ou ao aprimoramento da aptidão física, sendo consensual, no meio científico, as adaptações musculares e ósseas proporcionadas por essa prática. No entanto, a treinabilidade da força em crianças é discutida, principalmente, em função das controvérsias existentes entre estudos, referentes às adaptações provocadas pelo treinamento em nível muscular, bem como sobre as diferenças existentes entre os estágios de maturação. Sendo assim, as crianças são treináveis em relação à força muscular? O objetivo deste estudo foi avaliar a treinabilidade das forças de flexão do cotovelo e extensão do joelho em meninos escolares prépúberes e púberes submetidos a um programa de treinamento de força dinâmico e individualizado e comparálos com um grupo controle. O treinamento foi realizado 3 vezes por semana, durante 12 semanas, com 3 séries de 10-12 repetições, a uma intensidade de 60% a 85% do 1-RM. Também foi avaliada a especificidade do treinamento, comparando-se os ganhos obtidos nas forças dinâmica e estática dos membros superiores e inferiores. Os resultados indicaram que meninos pré-púberes e púberes submetidos ao treinamento apresentaram ganhos significativos na força muscular dinâmica (1-RM), tanto na flexão do cotovelo (88,9% e 44,4%, respectivamente) como na extensão do joelho (36,1% e 32,2%, respectivamente). O grau de treinabilidade da força, avaliado pelo ganho em quilogramas (∆) ocorrido nesses exercícios, foi semelhante nos dois grupos maturacionais. No entanto o treinamento dinâmico não alterou a força muscular estática, pois não houve alteração significativa das forças de flexão do cotovelo e extensão do joelho em 90° e 130°. Estes dados confirmam o princípio da especificidade entre os métodos de treinamento e de avaliação da força muscular. Palavras-chave: treinamento de força, força dinâmica, força estática, pré-púberes e púberes.
Resumo:
A atrazina (ATZ) foi utilizada em experimentos de laboratório para estudos de mineralização e dessorção em amostras de Argissolo Vermelho (PV) e Vertissolo Ebânico (VE), sob campo nativo, com o intuito de identificar os atributos do solo que afetam estes processos. A influência da umidade do solo sobre a atividade microbiana foi avaliada variando-se os teores de umidade em 20, 40, 65 e 85% da capacidade de água disponível do solo (CAD) e aplicando-se 1,5 kg de princípio ativo ha-1 (menor dose recomendada (DR)). Para a avaliação do efeito das doses do herbicida ATZ sobre a atividade microbiana e sobre a taxa de degradação do herbicida foram feitas aplicações de 1x, 2x, 4x, 7x e 10x a DR. Na avaliação do efeito da matéria orgânica sobre a atividade microbiana e sobre a taxa de degradação da ATZ foi feita a aplicação de 10x a DR. Num estudo adicional foram testados quatro métodos de desinfestação de solos (fumigação, tindalização, autoclavagem e irradiação em forno de microondas). A determinação da ATZ na solução foi feita por cromatografia gasosa em extratos de metanol. A atividade microbiana foi monitorada pela evolução de CO2 e a microbiota foi avaliada pela contagem de unidades formadoras de colônias Os resultados indicam que a população microbiana apresenta maior atividade entre 65 e 85% de umidade da CAD e que o aumento das doses de aplicação da ATZ não provoca alterações relevantes na atividade microbiana. Aproximadamente 70% do herbicida aplicado fica sorvido ao solo, independentemente de dose de ATZ aplicada e da classe de solo estudada (PV e VE). As taxas de degradação da ATZ lábil foram baixas e dependentes de doses e tipos de solos, sendo maiores em doses mais elevadas e em solos com maior teor de C. Dentre os métodos de desinfestação, a irradiação em forno de microondas foi o mais adequado, uma vez que apresentou um comportamento similar à testemunha quanto à sorção do herbicida e foi eficiente na redução da população microbiana do solo.
Resumo:
Na realização de atividades físicas o corpo humano exerce forças contra o solo. Em atividades tais como correr e saltar as forças são exercidas através dos pés. Atualmente, sabe-se que estudos da magnitude e direção destas forças, e das maneiras de suas mudanças no tempo, fornecem valiosas informações sobre a performance alcançada no movimento, podendo indicar medidas corretivas que possam aprimorá-la. Na obtenção destas variáveis determinantes no desempenho do movimento utilizam-se instrumentos denominados plataformas de forças, capazes de medir a força de ação realizada sobre sua superfície de contato, e o respectivo momento, permitindo a determinação das três componentes ortogonais de força (Fx, Fy, Fz) e os momentos em torno dos três eixos ortogonais (Mx, My, Mz) simultaneamente. Este trabalho descreve o desenvolvimento teórico de uma plataforma de forças específica para aplicação na decolagem do salto em distância, bem como as alternativas de projeto geradas neste desenvolvimento. Foram buscadas soluções para a realização dos experimentos sob condições naturais de treinamento, visando a construção do instrumento e sua instalação na pista de saltos atléticos. Para isso é proposta a substituição da tábua de impulsão original pela plataforma de forças desenvolvida. Nas alternativas geradas foi utilizado o princípio extensométrico resistivo de medição de forças, que representa uma diminuição substancial no custo de manufatura estimado frente às unidades comercialmente avaliadas. Nestas alternativas, os sensores resistivos “strain gages” são localizados estrategicamente em estruturas metálicas que sustentam uma tampa de material composto com a função de superfície de contato Para a análise estrutural das alternativas estudadas foi utilizado o Método dos Elementos Finitos. Para comparar e escolher a melhor entre as diversas alternativas, foram propostos índices de desempenho. Ao final do trabalho são apresentadas conclusões sobre a metodologia empregada no estudo realizado e sobre o novo modelo de plataforma de forças desenvolvido.
Resumo:
O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.
Resumo:
A tecnologia de workflow vem apresentando um grande crescimento nos últimos anos. Os Workflow Management Systems (WfMS) ou Sistemas de Gerenciamento de Workflow oferecem uma abordagem sistemática para uniformizar, automatizar e gerenciar os processos de negócios. Esta tecnologia requer técnicas de engenharia de software que facilitem a construção desse tipo de sistema. Há muito vem se formando uma consciência em engenharia de software de que para a obtenção de produtos com alta qualidade e que sejam economicamente viáveis torna-se necessário um conjunto sistemático de processos, técnicas e ferramentas. A reutilização está entre as técnicas mais relevantes desse conjunto. Parte-se do princípio que, reutilizando partes bem especificadas, desenvolvidas e testadas, pode-se construir software em menor tempo e com maior confiabilidade. Muitas técnicas que favorecem a reutilização têm sido propostas ao longo dos últimos anos. Entre estas técnicas estão: engenharia de domínio, frameworks, padrões, arquitetura de software e desenvolvimento baseado em componentes. Porém, o que falta nesse contexto é uma maneira sistemática e previsível de realizar a reutilização. Assim, o enfoque de linha de produto de software surge como uma proposta sistemática de desenvolvimento de software, baseada em uma família de produtos que compartilham um conjunto gerenciado de características entre seus principais artefatos. Estes artefatos incluem uma arquitetura base e um conjunto de componentes comuns para preencher esta arquitetura. O projeto de uma arquitetura para uma família de produtos deve considerar as semelhanças e variabilidades entre os produtos desta família. Esta dissertação apresenta uma proposta de arquitetura de linha de produto para sistemas de gerenciamento de workflow. Esta arquitetura pode ser usada para facilitar o processo de produção de diferentes sistemas de gerenciamento de workflow que possuem características comuns, mas que também possuam aspectos diferentes de acordo com as necessidades da indústria. O desenvolvimento da arquitetura proposta tomou como base a arquitetura genérica e o modelo de referência da Workflow Management Coalition (WfMC) e o padrão de arquitetura Process Manager desenvolvido no contexto do projeto ExPSEE1. O processo de desenvolvimento da arquitetura seguiu o processo sugerido pelo Catalysis com algumas modificações para representar variabilidade. A arquitetura proposta foi descrita e simulada através da ADL (Architecture Description Language) Rapide. A principal contribuição deste trabalho é uma arquitetura de linha de produto para sistemas de gerenciamento de workflow. Pode-se destacar também contribuições para uma proposta de sistematização de um processo de desenvolvimento de arquitetura de linha de produto e também um melhor entendimento dos conceitos e abordagens relacionados à prática de linha de produto, uma vez que esta tecnologia é recente e vem sendo largamente aplicada nas empresas.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
A disputa por um filho é uma situação tratada nas instituições judiciais através da nomeação do guardião mais apto para permanecer com a criança ou através de acordos entre as partes envolvidas, sempre considerando o princípio de priorizar o interesse superior da criança. Este estudo tem como objetivo elucidar aspectos da condição psicopatológica da disputa por um filho e suas repercussões no processo identificatório da criança. Para tanto, a pesquisadora partiu da pesquisa psicanalítica e da proposta de construção de caso psicanalítico para elaborar um ensaio metapsico(pato)lógico do caso. Foram realizados três estudos enfocando a criança na situação de disputa entre a família biológica e a família guardiã, na disputa entre uma dupla e mediante a separação conjugal. Ao finalizar o estudo levantou-se a questão sobre a importância da retomada do processo identificatório da criança disputada mediante a firmação do contrato identificatório. A posição dos pais na disputa pelo filho caracterizou a necessidade de exposição de um risco de perda deste filho e do desejo pelo mesmo. O compromisso identificatório da criança deverá ter suas cláusulas revistas e o desejo de um filho, para os pais, incluirá a assunção de um filho desejado e do não desejo de desejo por este filho. A possibilidade de mudança surgirá com a revelação de uma demanda que se autoriza e com a nova posição, que só poderá ser assumida pela criança com a participação da tolerância e flexibilidade daqueles que são os signatários de seu compromisso identificatório. O processo identificatório da criança, nos casos de disputa de guarda, terá a possibilidade de ser retomado através de sua mediação em situação psicanalítica de tratamento.
Resumo:
A dissertação apresentada enfoca um estudo de caso em três cooperativas de trabalho situadas na região das Missões. Tem o objetivo de identificar e avaliar as formas de flexibilização assumidas por essas cooperativas, bem como as implicações sobre as condições de trabalho de seus cooperados nestas formas mais flexíveis de relações de trabalho. Busca, também, identificar se os princípios e valores do verdadeiro cooperativismo são aplicados nestas cooperativas de trabalho. O estudo evidencia contradições entre as proposições constitutivas das cooperativas e a pratica operacional. As cláusulas estatutárias e a constituição jurídica situam as cooperativas pesquisadas no campo da legalidade exigida pela legislação do trabalho e cooperativista. As dificuldades administrativas e operacionais enfrentadas, tanto financeiras - pela escassez de recursos para a manutenção das suas necessidades e de seus cooperados -, quanto organizacionais – pelo tratamento privilegiado de alguns grupos- expõem, no entanto, a maioria das cooperativas ao risco de autuação fiscal. Expõem-nas, ainda, ao descrédito da comunidade. A partir da análise da realidade dos casos estudados, sugere-se a revisão do seu ideário e práticas cooperativas. É preciso revisá-lo, especialmente quanto aos princípios e valores, e aos aspectos legais que norteiam as relações de trabalho. Desse modo, é possível corrigir as formas contratuais que precarizam o trabalho e denigrem a imagem do sistema cooperativista. Da mesma forma, apresenta-se o perfil de uma verdadeira cooperativa de trabalho, quanto a organização e à atuação, de acordo com a legislação trabalhista, previdenciária e cooperativista, respeitando os princípios e valores do sistema.
Resumo:
A porção média da Planície Costeira do Rio Grande do Sul constitui-se numa região crítica em termos de planejamento de uso devido a uma estreita conjunção de fatores de ordem econômica, ambiental, social e histórico-cultural, estabelecida, em princípio, pela presença de um importante complexo estuarinolagunar. Nessa área, bem como no restante da zona costeira do Brasil, as diretrizes para o uso sustentável dos recursos naturais estão materializadas em leis e programas governamentais, dos quais o Plano Nacional de Gerenciamento Costeiro representa a linha mestra para as ações nos três níveis de governo. A exploração de recursos minerais nessa região é uma atividade antiga, relativamente de pouca expressão no contexto estadual, mas de grande significado social, econômico e cultural em nível regional, sustentando a demanda de vários municípios da região. Caracteriza-se principalmente pela exploração de areia e argila para uso na construção civil e para aterro, apresentando ainda potencialidade alta para exploração de turfa e minerais pesados. Com o objetivo de contribuir para a solução dos conflitos gerados por um modelo de exploração mineral ainda inconsistente com as demandas atuais de conservação e desenvolvimento, realizou-se uma análise ambiental integrada da área dos entornos do estuário da Laguna dos Patos, compreendendo os municípios de Pelotas, Rio Grande e São José do Norte. A análise considerou os marcos legais e institucionais, as características diferenciadas do meio físico-natural, os processos econômicos, sociais e culturais, as características da atividade de mineração na região e suas repercussões e interações no sistema ambiental como um todo. As informações disponíveis permitiram a geração de um banco de dados no Sistema de Informações Geográficas IDRISI 32®, na escala 1: 100.000, o qual forneceu a base para a análise interpretativa. Utilizando técnicas de geoprocessamento obteve-se uma síntese dos diagnósticos realizados através da definição, mapeamento e descrição de 19 unidades de planejamento, denominadas unidades geoambientais, posteriormente detalhadas em 108 unidades físico-naturais. A síntese de uma grande quantidade de dados, espacializada na forma de um mapa digital, auxiliou a definição dos critérios para elaboração de um mapa de vulnerabilidade ambiental relativa para a região. Este, aliado ao plano de informação que contém todas as áreas com restrição legal de uso, possibilitou o mapeamento das áreas mais críticas para gestão ambiental. Adicionalmente, considerando a potencialidade de recursos minerais para uso na construção civil e para aterro, os critérios que determinam a maior ou menor atratividade econômica para a sua exploração e as áreas mais críticas em termos de gestão ambiental, elaborou-se um mapa prescritivo que indica as áreas que devem ser consideradas prioritárias para um gerenciamento preventivo. Finalmente, a análise ambiental integrada permitiu a elaboração de um modelo de um plano de gestão para o setor, onde é apresentada uma estrutura seqüencial e ordenada do plano, exemplificada, em cada passo, com as informações disponíveis.
Resumo:
A presente tese é o resultado final de um trabalho prospectivo evolutivo que buscou apresentar uma nova filosofia de tratamento na instabilidade femoropatelar, voltada para a reconstrução anatômica do ligamento patelofemoral medial. Essa abordagem terapêutica mostrou-se extremamente eficiente, com poucas complicações e com uma recuperação bastante rápida, o que permite um retorno às atividades profissionais ou discentes dos pacientes num espaço de tempo mais curto dos que nas técnicas convencionais. Em um primeiro trabalho foi realizada a reconstrução do ligamento patelofemoral medial (LPFM) com uso de enxerto de poliéster, e neste foi utilizado enxerto livre do tendão do semitendinoso. Como não houve diferença significativa entre os dois, concluiu-se que o princípio defendido de reconstrução do ligamento patelofemoral mediaal é mais importante que a escolha do enxerto a ser utilizado.