86 resultados para restrições selecionais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de desenvolvimento de software implica na necessidade constante de tomadas de decisão. A cada etapa do processo, torna-se necessário estabelecer a comunicação e interação entre usuários, gerentes, analistas, programadores e mantenedores numa constante troca de informações. O registro dos artefatos produzidos durante todo o processo é uma questão que norteia as pesquisas em ambiente de desenvolvimento de software. Quando se fala em suporte ao processo de colaboração entre os elementos de uma equipe de desenvolvimento, este registro torna-se ainda mais necessário. Neste contexto, a modelagem dos dados a serem armazenados se amplia para comportar outras informações provenientes da interação do grupo além dos artefatos gerados. As informações trocadas durante este processo interativo que incluem fatos, hipóteses, restrições, decisões e suas razões, o significado de conceitos e, os documentos formais formam o que é denominado pela literatura especializada como memória de grupo. A proposta da arquitetura SaDg PROSOFT visa fornecer suporte a memória de grupo, no que diz respeito ao registro das justificativas de projeto(Design Rationale), através de uma integração com o gerenciador de processos (GP) provido pelo ADS PROSOFT. Esta integração se dá através das ferramentas inseridas no modelo, assim desenhadas: Editor de Norma, Editor de Argumentação, Extrator de Alternativas, Editor de Votação. O ADS PROSOFT integra ferramentas para desenvolvimento de software. Este ADS foi escolhido para o desenvolvimento do modelo SADG, pois baseia-se na construção formal de software, mas particularmente no método algébrico, por ser um ambiente estendível, possibilitando a inclusão do modelo SaDg PROSOFT ao seu conjunto de ferramentas, por ter características de um ambiente distribuído e cooperativo e por não dispor de nenhum suporte à discussões e decisões em grupos. São apresentados os fundamentos de modelos SADG e algumas ferramentas. Alguns dos principais requisitos desses ambientes foram coletados e são apresentados a fim de embasar a proposta do trabalho. O modelo SADG é apresentado na forma de ferramentas PROSOFT(chamadas ATOs) e permite a definição de atividades como: Atividade de argumentação, atividade de extração e a atividade de votação. Além disso, permite a coordenação destas atividades através de um facilitador e do próprio GP, e também, possui um mecanismo para a configuração do processo decisório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O leite é um dos mais importantes produtos agrícolas em todo o mundo. O mercado internacional de lácteos é dominado pela União Européia, Nova Zelândia, Estados Unidos e Austrália, mas alguns países em desenvolvimento como Brasil e México são também importantes importadores. Sustentação de preços, aquisições governamentais e restrições externas são instrumentos de políticas comuns neste setor. Na Rodada do Uruguai do GATT, em 1986, pela primeira vez os países membros resolveram eleger o comércio agrícola e as políticas domésticas como prioridade. Nesse sentido, ajustes devem ocorrer tanto no mercado internacional quanto nos mercados domésticos dos produtos lácteos visto que a relação entre políticas agrícolas domésticas e comércio mundial de produtos agrícolas é um fato. Neste estudo, o setor leiteiro é analisado da perspectiva das políticas, da produção e do comércio. Além disso, são discutidos também os efeitos da intervenção governamental no setor bem como os impactos da Rodada do Uruguai no mercado internacional e no setor leiteiro do Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acredita-se que no futuro as redes de telecomunicação e dados serão integradas em uma só rede, baseada na comutação de pacotes IP. Esta rede deverá oferecer serviços com qualidade (QoS) para as aplicações atuais e futuras. Uma das tecnologias que deverá ser adotada no núcleo desta nova rede é MPLS. MPLS introduz o conceito de switching (comutação) no ambiente IP e também permite que seja implementada a Engenharia de Tráfego, otimizando sua utilização através do roteamento baseado em restrições. Junto com MPLS outras arquiteturas para fornecimento de QoS, como Serviços Integrados e Serviços Diferenciados, serão utilizadas. Entretanto, como nenhuma delas atende a todos os requisitos para garantia de QoS fim a fim e levando-se em consideração o fato de a Internet ser uma rede heterogênea, surge a necessidade de um framework que permita a interoperabilidade das diferentes arquiteturas existentes. Neste trabalho é proposto um modelo de integração que fornece garantias de QoS fim a fim para redes que utilizam tanto Serviços Integrados como Serviços Diferenciados através do emprego de uma infra-estrutura baseada em MPLS e Serviços Diferenciados. A aplicabilidade do modelo foi testada no simulador ns2 e os resultados são apresentados neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na década de 90 foram produzidos estudos empíricos cuja amostragem envolvia praticamente toda a população existente, isto é, quase todas as nações do mundo. O objetivo declarado destes estudos era correlacionar determinadas variáveis econômicas com o nível de renda e de bem-estar social de cada nação. Naturalmente, sob o ponto de vista da economia, o conceito de bem-estar social deve refletir-se em dados concretos, passíveis de aferição objetiva, e não em critérios subjetivos, sejam estes de natureza cultural ou psicológica. Portanto, o bem-estar social, que é estatisticamente correlacionado com o nível de renda, traduz-se em indicadores como escolaridade, expectativa de vida, taxas de mortalidade, corrupção e pobreza humana, entre outros. Em complemento a estas evidências empíricas, o presente trabalho procura apresentar justificações teóricas que expliquem este desempenho mais eficiente de determinadas economias em relação a outras. Assim, transitando entre diferentes programas de pesquisa, a teoria desenvolvida tentará explicar as atividades de coordenação econômica, enfatizando a influência das restrições impostas aos agentes pelos custos, os incentivos representados pelos preços de mercado, e ainda a importância do arcabouço institucional vigente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A incorporação de restrições institucionais para a gestão da política fiscal pode explicar resultados sub-ótimos, como déficits fiscais elevados e a demora para o processo de ajustamento. Uma dessas restrições pode ser compreendida como o fato de que a política fiscal não é o resultado apenas das decisões de um formulador de política econômica. Quando se analisa o processo de decisão da política fiscal como o resultado de um processo de conflito de interesses entre agentes ou grupos, então resultados sub-ótimos podem ser explicados sem qualquer apelo a irracionalidade ou ao comportamento não benevolente de uma autoridade fiscal. A modelagem da política fiscal sob a hipótese de fragmentação de governo pode ser feita com mais de uma forma. Nesta tese, com o objetivo de analisar o caso brasileiro recente, primeiro utilizaram-se jogos dinâmicos – onde uma autoridade fiscal central joga com outros agentes que afetam o resultado da política fiscal e que têm funções utilidade distintas da primeira. Em jogos desse tipo pode-se demonstrar a eficiência de mecanismos de punição e incentivo para o cumprimento de uma determinada meta fiscal. Posteriormente, foram feitos testes para observar o padrão de ajustamento fiscal entre maio de 1992 e maio de 2002, no Brasil. Como a natureza do ajustamento fiscal, nos modelos com fragmentação de governo, é infrequente, a aplicação da metodologia de mudança de regime markoviano pareceu ser a mais apropriada. Os resultados obtidos indicaram um padrão de ajustamento esperado em relação às mudanças nos regimes do déficit primário, da dívida pública e ao impacto dos choques externos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho realiza um estudo sobre a criação de sistemas tempo-real usando orientação a objetos, com enfoque no mapeamento de especificações para linguagens de programação. O paradigma de orientação a objetos tem sido usado nas diferentes fases relacionadas com o desenvolvimento de sistemas tempo-real, variando desde a modelagem até o ambiente de programação e execução, mas atualmente estas iniciativas ainda focam etapas isoladas do ciclo de desenvolvimento. O objetivo deste trabalho é o de preencher esta lacuna, propondo um mapeamento entre uma metodologia ou ferramenta de análise e projeto de sistemas tempo-real orientados a objetos e uma linguagem ou ambiente de desenvolvimento baseado no paradigma de orientação a objetos que possua suporte para atender às restrições temporais especificadas. O mapeamento proposto foi desenvolvido utilizando estudos de caso clássicos em aplicações tempo-real que foram baseados em dois recentes padrões. O primeiro é o emergente padrão Real-Time UML, que visa realizar a especificação de requisitos temporais utilizando diagramas UML com extensões que os representem. O outro padrão é o Real-Time Specification for Java, que consiste de uma interface de programação (API) para desenvolvimento de aplicações tempo-real com a linguagem Java. O relacionamento entre stereotypes e tags usados para representar restrições temporais em diagramas UML e o código Java correspondente é explicado e um sumário da estratégia de mapeamento é discutido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A iluminação hospitalar, nos espaços de permanência dos pacientes, deve levar em conta os requisitos visuais de seus dois grupos principais de usuários: o staff, com vistas a viabilizar a execução de procedimentos médicos, e os pacientes, que devem ter garantias de boas condições de conforto visual. Os requisitos visuais de ambos usuários incluem diversos critérios quantitativos e qualitativos de iluminação. Além do compromisso de iluminar as tarefas visuais e outras atividades, os sistemas de iluminação também são responsáveis pela criação de impressões ambientais, influenciando as respostas emocionais dos usuários. Isso é particularmente importante nos hospitais, uma vez que os mesmos abrigam pessoas fragilizadas e com alto nível de estresse. Contudo, a prática indica que os projetos de iluminação nestes espaços priorizam os requisitos quantitativos, em detrimento da qualidade visual do ambiente ou das respostas emocionais que estes provocam. Similarmente, tais instalações são sujeitas a restrições econômicas impostas pelo alto custo de construção dos hospitais. Neste contexto, o presente trabalho tem como objetivo estabelecer diretrizes para projetos de iluminação natural e artificial nos espaços de internação e recuperação dos hospitais, enfatizando os critérios qualitativos envolvidos Assim, foram realizados dois estudos de caso: no Hospital Santa Rita, do Complexo Hospitalar da Santa Casa de Misericórdia e no Hospital Moinhos de Vento, ambos em Porto Alegre. Os espaços estudados nos dois hospitais foram os quartos das unidades de internação, as UTI e as salas de recuperação pós-anestésicas dos centros cirúrgicos. A metodologia utilizada para a avaliação dos sistemas de iluminação natural e artificial destes espaços foi baseada em uma análise comparativa entre as medições das condições de iluminação e o nível de satisfação dos usuários. A análise e interpretação dos resultados dos estudos de caso forneceram subsídios para a identificação de padrões nos projetos de iluminação dos hospitais investigados, assim como características individuais. Como decorrência, foi possível elaborar princípios gerais de projeto e diretrizes específicas para a iluminação natural e artificial dos espaços de internação e recuperação, os quais consideram as implicações dos aspectos quantitativos e qualitativos destes sistemas no conforto visual dos usuários.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação é realizado o estudo e caracterização do comportamento de uma Unidade de Extração de Butadieno. O objetivo deste estudo é a proposição de estratégias de controle para esta unidade que, respeitando as restrições e características do processo, permitam que sejam alcançadas as seguintes metas operacionais: elevação da carga processável, aumento do tempo de campanha, aumento da corrente de produto e diminuição das perdas de butadieno ao longo do processo. O estudo e proposição das estratégias de controle é feito de modo sistemático, seguindo uma metodologia na qual o aspecto fundamental é o entendimento do processo e a compreensão das relações causa e efeito entre as variáveis manipuladas, controladas (ou medidas) e distúrbios. A presença de reciclos mássicos e energéticos somados aos efeitos da destilação extrativa faz com que, muitas vezes, essa relação contrarie o que é esperado pelo senso comum. As informações utilizadas na proposição e classificação das estruturas são oriundas de estudos em modelos do processo construídos em simuladores comerciais (ASPEN Plus v10.1 e ASPEN Dynamics). Ao longo desses estudos, as características estacionárias e dinâmicas do processo foram elucidadas, permitindo com que fosse proposta uma estrutura com potencialidade de atingir os objetivos referidos acima. Como resultados importantes podem ser citados: a importância do conjunto de parâmetros binários na modelagem termodinâmica do processo, a detecção do efeito "SnowBall", relacionado com a forma como os níveis dos equipamentos e vazões das correntes são controladas em sistemas com reciclo, e a determinação do comportamento da composição de vinil acetileno no topo da 2º Coluna de Destilação Extrativa (componente chave de separação nesta coluna) em relação a quantidade de solvente. Conforme a maneira como a corrente de alimentação da coluna Recuperadora de Butadieno é operada (temperatura ou taxa de resfriamento constante), quando a vazão de solvente na 2º Coluna de Destilação Extrativa é modificada, pode ocorrer uma inversão de ganho na concentração deste componente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Parque Estadual de Itapuã é considerado a última área representativa dos ecossistemas originais da região metropolitana de Porto Alegre, sendo que nos últimos 11 anos somente foi permitida a entrada de pesquisadores em suas dependências. Após este longo período em que esteve fechado, o Parque voltará a receber turistas no início de 2002, sendo que os principais destinos serão as praias. Dentre as oito praias existentes na área, somente três serão abertas à visitação, sendo a Praia de Fora a maior delas e a única voltada para a Lagoa dos Patos. Com objetivo de fornecer subsídios para o gerenciamento da Praia de Fora, efetuou-se a análise de uma série de parâmetros morfodinâmicos consagrados na literatura mundial, aprimorando o nível de conhecimento desta praia e suas relações com a Lagoa dos Patos. Para tanto, utilizou-se os modelos de praias de Banco Único e de Bancos Múltiplos da chamada Escola Australiana com a aplicação dos seguintes parâmetros: Parâmetro Adimensional Omega (Ù), Omega Teórico (Ùterorico), Parâmetro de Banco (B), Declividade da Face de Praia (Tang ß) e Parâmetro Dimensionador de Surfe (surf scaling parameter). Outros modelos utilizados foram o Perfil de Equilíbrio de DEAN (1973), o modelo de Transporte Longitudinal dos sedimentos da zona de surfe, (SPM, 1984), o Limite Externo e Limite Interno (Profundidade de Fechamento) e o modelo de Sentido Preferencial de Transporte Perpendicular (SUNAMURA & TAKEDA, 1984). Além destes, optou-se por realizar uma análise temporal da variação da linha de praia da Praia de Fora no período entre 1978 e 2001. Os resultados obtidos indicam um ambiente com uma grande variação energética anual, sendo que a largura da face praial apresentou variações de até 16 m e a declividade de 2,8° a 11.3°. A análise dos parâmetros morfodinâmicos indicou uma praia com grande alternância de estágios morfodinâmicos, que reflete a presença de uma zona de transporte de sedimentos muito intenso por ação de ondas até a profundidade de 0,90 m, uma zona de transporte significativo entre 0,90 e 5 m e uma zona de transporte incipiente para as profundidades maiores que 6 m. O transporte no sentido longitudinal, apresenta uma bidirecionalidade com uma pequena resultante para SE e em sentido transversal apresenta uma maior incidência de transporte da zona de surfe para a antepraia, caracterizando setores erosivos na Praia de Fora. Estes setores erosivos foram detectados em 58% da extensão da Praia de Fora com uma taxa média de 3,75 m por ano. Já em 14% da extensão da praia foi observado acresção e em 28% da praia não houve variação significativa da posição da linha de praia. As taxas médias de deposição chegaram a 1,75 m por ano. A sistematização de todos os resultados permitiu a elaboração de subsídios para o gerenciamento da Praia de Fora. São eles: análise dos riscos para a segurança de banhistas na praia, manejo de dunas, restrições a explotação de areia de fundo nas adjacências da Praia de Fora e delimitação submersa do Parque de Itapuã junto à cota batimétrica dos –6m. Esta delimitação aumentaria em aproximadamente 10.920 hectares ou 196 %, a área atual de preservação do Parque de Itapuã.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho está baseado na abordagem de gestão por competências, principalmente nos estudos sobre competências organizacionais e gerenciais. Desenvolve-se sob a lógica de que as competências organizacionais estão fundamentadas nas competências gerenciais e que as competências organizacionais são diretrizes ao desenvolvimento das competências gerenciais. A pesquisa tem como principal objetivo estudar a aplicação da gestão de competências organizacionais básicas e gerenciais em uma empresa pública tendo como referência a estratégia empresarial da mesma. O estudo foi dividido nas seguintes etapas: caracterização das diretrizes estratégicas; desenvolvimento de competências organizacionais básicas; desenvolvimento de competências gerenciais; estabelecimento de vínculos entre as competências gerenciais e os cargos da organização e estudo sobre os principais recursos de competências necessários. O estudo foi realizado no Porto de Itajaí, Itajaí – SC. A metodologia de pesquisa foi exploratória, de natureza qualitativa, com base em entrevistas semiestruturadas junto a gestores e usuários do Porto de Itajaí, em pesquisa documental e em observação direta. Ao final, conclui-se a viabilidade da aplicação dos conceitos de gestão por competências em empresas públicas com restrições na contratação e remuneração dos funcionários, devido à legislação que regulamenta o funcionalismo público.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas que desenvolvem, simultaneamente, suas opções e decisões com relação ao mesmo. Assim sendo, é necessário considerar que a realização do projeto é dependente da eficiência da comunicação entre os membros da equipe, uma vez que grande parte do trabalho de cada projetista deve ser desenvolvida sob as restrições impostas pelas necessidades dos demais. O cuidado com o fluxo de informações apresenta-se, portanto, como um mecanismo eficiente para garantir a integração, controle e organização das atividades, colaborando para a transparência do processo tanto para o coordenador como para cada um dos profissionais selecionados para a equipe. Assim, este trabalho propõe, com base na realização de uma série de entrevistas com profissionais da área de projeto da cidade de Porto Alegre (RS), um sequenciamento básico de atividades a serem desenvolvidas pelos profissionais ao longo das etapas do processo. O modelo traçado buscou explicitar de forma sistematizada o intercâmbio de informações necessário para o desenvolvimento de cada projeto específico, definindo os principais resultados que devem ser disponibilizados para que outros profissionais possam desenvolver sua parcela do trabalho. O modelo foi gerado caracterizando a dependência entre os resultados disponibilizados individualmente pelos intervenientes para a equipe de profissionais ao longo do processo Desta forma, cada resultado caracterizou uma atividade, para a qual é possível conhecer não só as dependências - atividade(s) precedente(s) e sucessora(s)- mas a quem cabe a responsabilidade de disponibilizar tal informação, permitindo a tomada de decisão sobre o processo como um todo ao observar as ocorrências do dia-a-dia.