707 resultados para conexão enfática
Resumo:
Nesta dissertação, procuro entender o funcionamento de uma disciplina científica-acadêmica, a qual denominei de Bioquímica Médica, no seu processo de diferenciação enquanto uma disciplina situada na conexão entre os campos de saber médico e bioquímico. Para essa discussão, procuro me ancorar em questões trazidas pelos Estudos Culturais e pelos Estudos da Ciência, em suas vertentes pósestruturalistas. Dentre essas questões, destaco que compreender a disciplina e o conhecimento como construções processadas na cultura, leva-me a problematizar a disposição naturalizada dos saberes e a pensar a disciplina como um conjunto de estratégias, regras e padrões que regulam a forma como os sujeitos produzem o seu conhecimento sobre o mundo. Discuto também como a disciplina Bioquímica Médica, ao se encontrar implicada em uma formação profissional, incorporava discursos e práticas que articulavam os campos de saber bioquímico e médico, adequando-se ao seu contexto institucional - a Faculdade de Medicina. Nesse processo de articulação, procuro ver como as especificidades dessa disciplina constituíram-se e atuavam enquanto estratégias que, ao atenderem aos interesses institucionais, legitimavam o lugar dessa disciplina nesse Curso. Para a realização desse estudo, utilizei algumas ferramentas da etnografia que me permitiram circular pela variedade de espaços e atividades da disciplina e interagir com as pessoas - estudantes, monitores/as, professores e palestrantes - que dela participavam. Assim, fui tecendo a rede de elementos - aulas teórico-práticas, encontros extra-classe entre os/as monitores/as e os/as estudantes, entrevistas de pacientes no hospital, atividades de informática, reuniões entre os professores e os/as monitores/as, procedimentos pedagógicos, regras e padrões institucionais - que constituíam a disciplina; e, dessa forma, fui (re)construindo e discutindo suas especificidades. Dentre essas especificidades que diferenciavam a Bioquímica Médica enquanto disciplina constituída na articulação dos campos médico e bioquímico, destacava-se a entrevista de pacientes diabéticos/as em um hospital, que incorporava uma prática médica instituída. Nesse processo de articulação, as especificidades da disciplina atuavam, ao mesmo tempo, demarcando um campo de possibilidade no qual determinados objetos - como a diabetes - eram configurados para os/as estudantes enquanto objetos de conhecimento médicobioquímico, e legitimando a disciplina de Bioquímica no Curso de Medicina.
Resumo:
Neste trabalho definimos três modelos de escadas de spin integráveis novos que correspondem a variações de um modelo de escada de spin baseado na simetria SU(4). Os modelos são exatamente solúveis através do método do ansatz de Bethe e as equações do ansatz de Bethe, os autovalores de energia e o gap de spin são derivados e propriedades físicas interessantes são discutidas. Inicialmente apresentamos um modelo de escada de spin integrável que possui um parâmetro livre além do acomplamento ao longo dos degraus. Determinamos a dependência do parâmetro anisotrópico na transição de fase entre uma região com gap e outra sem gap. Nós também mostramos que o modelo é um caso especial de uma Hamiltoniana mais geral que possui três parâmetros livres. A susceptibilidade magnética em função da temperatura é obtida numericamente e sua dependência no parâmetro anisotrópico é determinada explicitamente. Uma comparação entre o gap de spin obtido através da curva de susceptibilidade magnética e aquele obtido das equações do ansatz de Bethe é feita e uma boa concordância encontrada. A conexão com alguns compostos é apresentada e mostramos que os nossos resultados ajustam bem a curva da susceptibilidade magnética dos compostos KCuCI3, CU2(C5H12N2hC14e (C5H12NhCuBr4. A seguir nós propomos dois tipos diferentes de modelos integráveis com impurezas. Mostramos em ambos os casos que uma transição de fase entre uma região com gap e outra sem gap ocorre para um valor crítico do acoplamento ao longo dos degraus. Além disso, a dependência das impurezas na transição de fase é determinada explicitamente. Em um dos modelos o gap diminui com o aumento da intensidade da impureza A. E, fixando a intensidade de impureza A, é observada uma redução do gap com o aumento da concentração de impurezas. Este resultado está qualitativamente de acordo com resultados experimentais.
Resumo:
Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
O comportamento de calcários gaúchos, como dessulfurantes, foi avaliado levando-se em consideração a influência das características estruturais dos calcinados e de seus precursores. Os materiais, na faixa granulométrica de 53-62µm, foram calcinados em uma termobalança em atmosfera de N2 (100%) ou de mistura N2 (85,2%) + CO2 (14,8%) e posteriormente, submetidos a mistura oxidante contendo dióxido de enxofre. As distribuições de tamanhos de poros (DTP) dos calcinados, mostraram-se dependentes da atmosfera de calcinação e do raio de grão do calcário precursor. A ordem de reatividade, estabelecida pelos calcinados estudados neste trabalho, não apresentou relação com a consideração de uma DTP ótima (maioria de poros acima de 50Å), não sendo portanto este critério válido para seleção de dessulfurantes. Para os calcinados de uma mesma amostra, obteve-se uma relação direta entre tamanho de grão do CaO (área superficial) e reatividade, sendo as trajetórias de reação definidas de maneira combinada entre as suas distribuições de tamanhos de poros e a forma como os poros estão localizados e conectados na estrutura. Entre materiais diferentes, calcinados sob as mesmas condições e que apresentam as mesmas características físicas e de distribuição, as trajetórias de reação foram bastante distintas, demonstrando que essas semelhanças físicas não correspondem a uma mesma capacidade de reação ao longo do tempo. Isto salientou uma possível influência das características intrínsecas de cada material, relacionadas à localização e conexão dos poros na estrutura, em sua capacidade dessulfurante. Entre os calcinados com semelhanças em suas DTP e propriedades físicas, tornou-se possível relacionar a ordem de reatividade ao raio de grão do calcário precursor (determinante da localização e da forma de conexão dos poros na estrutura), sendo os calcinados de precursores de menor raio de grão os mais reativos.
Resumo:
Os requisitos direcionam o desenvolvimento de software porque são cruciais para a sua qualidade. Como conseqüência tanto requisitos funcionais quanto não funcionais devem ser identificados o mais cedo possível e sua elicitação deve ser precisa e completa. Os requisitos funcionais exercem um papel importante uma vez que expressam os serviços esperados pela aplicação. Por outro lado, os requisitos não funcionais estão relacionados com as restrições e propriedades aplicadas ao software. Este trabalho descreve como identificar requisitos não funcionais e seu mapeamento para aspectos. O desenvolvimento de software orientado a aspectos é apontado como a solução para os problemas envolvidos na elicitação e modelagem dos requisitos não funcionais. No modelo orientado a aspectos, o aspecto é considerado o elemento de primeira ordem, onde o software pode ser modelado com classes e aspectos. As classes são comumente usadas para modelar e implementar os requisitos funcionais, já os aspectos são adotados para a modelagem e implementação dos requisitos não funcionais. Desse modo, é proposta a modelagem dos requisitos não funcionais através das fases do ciclo de vida do software, desde as primeiras etapas do processo de desenvolvimento. Este trabalho apresenta o método chamado FRIDA – From RequIrements to Design using Aspects, cujo objetivo é determinar uma forma sistemática para elicitar e modelar tanto os requisitos funcionais quanto os não funcionais, desde as fases iniciais do ciclo de desenvolvimento. Em FRIDA, a elicitação dos requisitos não funcionais é realizada usando-se checklists e léxicos, os quais auxiliam o desenvolvedor a descobrir os aspectos globais – utilizados por toda a aplicação – bem como, os aspectos parciais que podem ser empregados somente a algumas partes da aplicação. O próximo passo consiste na identificação dos possíveis conflitos gerados entre aspectos e como resolvê-los. No método FRIDA, a identificação e resolução de conflitos é tão importante quanto a elicitação de requisitos não funcionais, nas primeiras fases do ciclo de vida do software. Além disso, é descrito como usar a matriz de conflitos para automatizar esse processo sempre que possível. A extração dos aspectos e sua modelagem visual são características muito importantes, suportadas pelo método, porque elas possibilitam a criação de modelos que podem ser reutilizados no futuro. Em FRIDA, é demonstrado como transformar os requisitos em elementos da fase de projeto (classes e aspectos) e como traduzir esses elementos em código. Outra característica do método FRIDA é que a conexão entre diagramas, que pertencem a diferentes fases do processo de desenvolvimento do software, permite um alto nível de rastreabilidade. Em resumo, FRIDA requer que o desenvolvedor migre de uma visão puramente funcional para outra que contemple também os requisitos não funcionais.
Resumo:
A Automação Residencial é uma área em crescimento no mercado mundial. À medida que os avanços tecnológicos são incorporados aos dispositivos pertencentes ao ambiente residencial, e que estes se tornam mais disseminados, surgem necessidades para fabricantes e usuários. Para os fabricantes, é desejável maior capacidade de conexão e intercâmbio de dados entre os dispositivos e, conseqüentemente, padronização. Para os usuários, é desejável maior facilidade na utilização dos dispositivos e, principalmente, na configuração dos mesmos em ambientes dinâmicos, de forma a não requerer interação do usuário para a conexão e desconexão, característica das redes espontâneas. Grandes empresas têm unido esforços no desenvolvimento de novos padrões e uma das tendências observadas é o isolamento destas novas necessidades numa camada entre a aplicação e o sistema operacional, denominada middleware. Este trabalho compara duas tecnologias que se enquadram nos critérios acima: Jini, da Sun Microsystems e Universal Plug and Play (UPnP), de um consórcio de empresas liderado pela Microsoft. O estudo é feito através do desenvolvimento de um protótipo, da definição de um conjunto de métricas qualitativas e quantitativas, e da implementação de um conjunto de workloads para a análise comparativa entre elas. Os resultados obtidos são apresentados e analisados, contribuindo com subsídios para os interessados em conhecer melhor ou optar por uma delas. Por fim, são registradas algumas necessidades observadas que poderão servir como base para trabalhos futuros.
Resumo:
Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).
Resumo:
Este trabalho tem por objetivo otimizar os parâmetros de nitretação a plasma para a formação de camadas nitretadas com propriedades tribológicas adequadas para a utilização em ponteiras de conexão utilizadas em “risers” de completação de poços de petróleo. Para atingir este objetivo, amostras de aço inoxidável endurecível por precipitação 17-4 PH foram nitretadas a plasma em um reator com mistura gasosa de 76%N2 e 24%H2 durante 4 horas. As temperaturas utilizadas no processo foram 400, 450, 480 e 550°C. As camadas nitretadas produzidas foram avaliadas quanto à morfologia, espessura, composição, dureza, resistência à corrosão e resistência ao desgaste. Os resultados demonstraram que as condições de nitretação utilizadas foram eficientes no endurecimento superficial das amostras. A utilização de temperatura elevada (550°C) não é adequada para a nitretação de aços inoxidáveis endurecíveis por precipitação 17-4 PH. A amostra nitretada a 450°C apresentou a melhor combinação de propriedades para aplicação nas ponteiras de “risers” de completação.
Resumo:
O presente trabalho analisa a criação do estado do Tocantins, através da divisão doestado de Goiás. Essa análise tem relação com as articulações políticas bem como ohistórico de atividades desenvolvidas para a divisão da região. Os líderes separatistas emsuas respectivas épocas como Lysias Rodrigues, Feliciano Machado Braga e José WilsonSiqueira Campos são estudados de maneira mais enfática levando-se em conta que suasações tiveram relevância e conhecimento em âmbito nacional. A questão da Marcha paraOeste através da intenção de ocupar os espaços vazios do sertão brasileiro se desenvolvecomo tema de extrema importância para o entendimento do trabalho. Como marco dessa"interiorização", o estudo das cidades-capitais projetadas como forma de introduzir amodernidade nos sertões também é levantada. Sendo assim, Goiânia, Brasília e Palmasaparecem como instrumentos para a formação da identidade de um povo. Com base nisso, asentrevistas feitas com representantes da região do Tocantins ganham valor principal por setratar de uma espécie de testemunhas da história.
Resumo:
O Sistema Hidrológico do Taim, que inclui o Banhado do Taim, insere-se em uma região de áreas alagáveis contínuas caracterizadas por banhados e lagoas de água doce, em uma dinâmica de baixo relevo entre o Oceano Atlântico e a Lagoa Mirim, litoral Sul do Rio Grande do Sul. Este sistema encontra-se associado a uma vasta área de monocultura de arroz irrigado. As alterações antropogênicas ou naturais dos níveis d’água no sistema podem afetar a estrutura das comunidades planctônicas associadas às lagoas e à vegetação macrofítica. O objetivo principal do presente trabalho foi caracterizar a estrutura da comunidade zooplanctônica e verificar sua variação horizontal e temporal num eixo formado por uma área aberta (livre de vegetação) e uma área vegetada por densos estandes de macrófitas, assim como verificar a relação das características limnológicas e climatológicas com estas comunidades de forma a contribuir com elementos para a definição de regras adequadas ao uso dos recursos hídricos desta área. O estudo foi conduzido numa lagoa rasa interna ao Banhado (Lagoa Jacaré), e na porção do Banhado do Taim adjacente à Lagoa. Foi definida uma transecção Banhado-Lagoa composta por três pontos de amostragem (Banhado, Interface e Lagoa). Amostras de água foram coletadas trimestralmente, ao longo de um ano (Agosto/2002 a Junho/2003), para a análise do zooplâncton e das características ambientais. A comunidade zooplanctônica esteve representada por um total de 85 espécies, dentre as quais 39 pertencem aos cladóceros, caracterizando-o como o grupo de maior riqueza específica. O Índice de Constância demonstrou como espécies constantes no eixo Banhado-Lagoa, os rotíferos Lecane leontina e Testudinella sp., e os cladóceros Ceriodaphnia richardi e Chydorus sphaericus. Os copépodos foram o grupo de maior abundância, representada pela dominância dos náuplios e copepoditos, pois os indivíduos adultos freqüentemente ocorreram em número reduzido. Agosto (inverno) foi o período com o maior número de indivíduos, com valores de densidade bastante acentuados em relação aos demais. O Banhado apresentou a maior densidade zooplanctônica, assim como os maiores valores de riqueza e diversidade específica. Este habitat revela-se como uma zona potencial de abrigo e manutenção da fauna zooplanctônica, enfatizando a importância da conservação dos ecossistemas de banhados. As flutuações do nível d’água demonstraram a maior correlação com a variação da comunidade zooplanctônica. A ocorrência de níveis d’água elevados permitiu ampla conexão entre os habitats e grande disponibilidade de nichos, contribuindo para a manutenção de elevada densidade, riqueza e diversidade zooplanctônica nos períodos com tais condições.
Resumo:
Técnicas de inteligência artificial, aplicadas a dados de transações de empréstimo do acervo de uma biblioteca, podem gerar recomendações de itens relevantes para usuários e pesquisadores. O sistema sugerido neste relatório é baseado em procedimentos de consolidação e conexão de registros em um data mart, associados às técnicas de análise de cestas, análise de agrupamentos e análise de redes, numa estratégia de cooperação indireta. No modelo aqui proposto, os itens da biblioteca são consolidados em assuntos significativos e grupos temáticos. Os usuários, por outro lado, são separados por grupos temáticos e segmentados segundo seu perfil de leitura. Por meio de consolidação são criadas listas para cada subgrupo especializado obtido, contendo recomendações específicas, temáticas e gerais. Sugere-se a utilização de transações virtuais para aperfeiçoar as recomendações. Além de servir a bibliotecas, o modelo proposto tem aplicabilidade direta em livrarias virtuais e pode ser adaptado para praticamente qualquer tipo de empreendimento em e-business.
Resumo:
Trata o presente objeto de pesquisa da proposta de desenvolvimento de um modelo de ambiente de avaliação remota para Ensino à Distância, baseado no paradigma de Orientação a Objetos e elaborado com base na tecnologia de sistemas multiagentes. Para a validação do modelo, foi desenvolvido um protótipo denominado Javal, capaz de permitir a aplicação e monitoração da realização de avaliações e testes à distância. As soluções comerciais disponíveis no mercado, como Question Mark Perception, Aula Net e WebCT possuem código fechado e custo elevado, além de serem baseadas em soluções proprietárias (QML - Question Mark, ASP - Microsoft, etc.), necessitando de plataforma específica para instalação de servidores e clientes. Quanto ao aspecto funcional, estas ferramentas possuem a base de sua lógica de funcionamento em execução de scripts no servidor. Para cada item de uma avaliação a ser respondido, torna-se necessária a efetivação de uma nova conexão. O modelo proposto traz toda a funcionalidade do sistema para o ambiente do aluno, tornando necessária apenas uma conexão para a busca da avaliação e outra para o envio dos resultados, reduzindo o tráfego na rede. Quanto ao aspecto pedagógico, estas ferramentas limitam-se apenas a apresentar uma avaliação somativa do aluno, geração de graus e estatísticas, não se preocupando em monitorar seus aspectos comportamentais, capazes de apontar indícios de possíveis falhas no aprendizado ou na elaboração da avaliação. A proposta do modelo é da apresentação de um ambiente orientado a objetos, capaz de distribuir elementos representativos das avaliações existentes no modelo tradicional de ensino, incorporando recursos capazes de possibilitar a monitoração de aspectos comportamentais do aluno, pelo emprego de agentes monitores ou tutores, que podem acompanhar o aluno e auxiliá-lo em situações de dificuldade. O modelo proposto por este trabalho envolve as avaliações formativas e somativas, aplicadas de forma assíncrona e individual. Como sugestão para trabalhos futuros, o modelo propõe o desenvolvimento de classes capazes de implementar a aplicação de avaliações síncronas e em grupo. A validação do modelo proposto foi realizado através do desenvolvimento de um protótipo que, com base no desenvolvimento de uma API Javal específica, implementa os principais tipos de questões disponíveis no sistema de ensino tradicional, além de agentes tutores de avaliação.
Resumo:
Este trabalho tem como meta uma exposição sucinta sobre as relações entre economia e meio ambiente, que foram, durante muito tempo, ignoradas ou relegadas a um plano secundário pela grande maioria dos economistas. Essas relações passaram a ser melhor investigadas após os choques do petróleo na década de 70, que mudaram radicalmente o enfoque sobre o binômio economia-meio ambiente, contribuindo também para essa mudança os efeitos cada vez mais visíveis causados pela poluição desenfreada do planeta. Discute-se também sobre o conceito de desenvolvimento sustentável, bem como sobre sua evolução ao longo do tempo e as duas visões concorrentes sobre essa questão, além de abordar, resumidamente, a qualidade ambiental e os recursos naturais de propriedade comum como bens públicos. O trabalho também traça um paralelo entre os modelos de crescimento neoclássicos e os modelos de crescimento endógeno, no que se refere à incorporação de variáveis ambientais, como poluição, energia e recursos naturais. Como contribuição empírica para a conexão entre capital natural e crescimento econômico, procuramos estimar a relação entre estoque de terras, empregado como proxy para o capital natural, e o crescimento da renda per capita para as unidades federativas brasileiras, a partir de 1970, por meio de uma relação cúbica empregando dados de painel. Verificamos que, quando se consideram, para o cálculo do índice de expansão agrícola, os dados referentes à área agrícola utilizada, que é a soma da área agrícola permanente mais a área agrícola temporária, o modelo empregado é significativo e bem especificado. Neste caso, constatamos um padrão de “explosão e quebra” do processo de crescimento econômico associado à expansão da lavoura agrícola das unidades federativas brasileiras.
Resumo:
Este trabalho procura compreender quais são os fatores criticos de sucesso na gestão das AABBs - Associações Atleticas Banco do Brasil Com 1.267 unidades espalhadas por todo o território nacionaL as AABBs constituem uma das maiores redes de clubes ligados a uma única empresa - no caso. o Banco do Brasii - de todo o mundo Para realizar a taret~l foi util izado o referencial teórico da perspectiva teórico-critica da Escola de Frankfun. mais especificamente as contribuiçôl's de jllrgen Haberma". da segunda geração frankfuniana Foram le\'adas em conta as cmicas de Habermas à racio/lalidade "'.\lrll/l1<:lIlal e o conceiro dele de raâol1ul/(lade COl1llllÚCalll'U, em conexão com as noções de açào gerel/nul nlOnoláglclI e a~ilo gerencial dialriglca desell\ol\'idas por Fernando Tenório As opiniões de três segmentos principais embasam o presente estudo: associados das AABH.\, admilli,\/rl1dorcs do !JUIlCO do !Jrasti e dirigentes das A.A!J!Js A panir desses pontos de vista procurou-se detinir o que caracteriza sucesso na gestão dos clubes: quais são os tipos de racionalidade. de ação gerencial e de práticas administrativas que predominam nas AAB85: como é vista e utilizada a infra-estrutura das associações: como o relacionamento dos dirigentes dos clubes com os administradores do Banco do Brasil e com a Federação Nacional das AABBs - Fenabb impacta a "ida das associações. e de que forma se dá o processo de comunicação das AABBs com os seus associados Os resultados do estudo podem contribuir para a melhoria dos processos de gestão das AABBs. além de subsidiar as pesquisas sobre a atuação de outras entidades de natureza semelhante.