989 resultados para Métodos de Pontos Interiores
Resumo:
Uma das tarefas mais desafiadoras do engenheiro na área da Geotecnia é a escolha dos valores de parâmetros geotécnicos obtidos de ensaios de campo ou laboratório e que serão utilizados nos modelos analíticos ou numéricos na fase de projeto de fundações. Diante das incertezas inerentes aos ensaios de SPT e da heterogeneidade de abordagens para a utilização dos valores de NSPT, é proposta neste estudo, a aplicação de um critério estatístico para obtenção de valores de NSPT, a partir da construção de intervalos de confiança de 95% de probabilidade em torno da reta ajustada de regressão linear simples entre a variável aleatória NSPT e a profundidade. Os valores obtidos de NSPT pelo critério aplicado foram utilizados na previsão da capacidade de carga de 19 estacas isoladas a partir da utilização de três métodos semi-empíricos: Aoki-Velloso (1975) com coeficientes alterados por Monteiro (1997), Décourt & Quaresma (1978) alterado pelo método de Décourt (1996) e Método de Alonso (1996). As cargas de ruptura dessas 19 estacas ensaiadas através de Provas de Carga Estática foram obtidas pelos métodos de extrapolação de Van Der Veen (1953) e Décourt (1996) e serviram para comparação e consequente validação do critério estatístico. Adicionalmente, com fulcro no item 6.2.1.2.1 da ABNT NBR 6122:2010 Resistência calculada por método semi-empírico, foram avaliados os fatores de segurança em relação às cargas de projeto, inclusive, também se utilizando da premissa de reconhecimento de regiões representativas, levando em conta o número de ensaios de SPT executados, fato que promove uma diminuição da incerteza dos parâmetros, apontando a um menor fator de segurança. A dissertação enfatiza as vantagens de um adequado tratamento estatístico dos parâmetros geotécnicos, a exemplo da recomendação já existente nas normas internacionais como Eurocódigo e outras. O critério construído permite e encoraja análises e decisões racionais no universo das partes interessadas consumidores, projetistas, fiscais de obras, contratantes e comunidade científica promovendo as discussões de forma mais objetiva e harmoniosa sobre o tema.
Resumo:
Com cada vez mais intenso desenvolvimento urbano e industrial, atualmente um desafio fundamental é eliminar ou reduzir o impacto causado pelas emissões de poluentes para a atmosfera. No ano de 2012, o Rio de Janeiro sediou a Rio +20, a Conferência das Nações Unidas sobre Desenvolvimento Sustentável, onde representantes de todo o mundo participaram. Na época, entre outros assuntos foram discutidos a economia verde e o desenvolvimento sustentável. O O3 troposférico apresenta-se como uma variável extremamente importante devido ao seu forte impacto ambiental, e conhecer o comportamento dos parâmetros que afetam a qualidade do ar de uma região, é útil para prever cenários. A química das ciências atmosféricas e meteorologia são altamente não lineares e, assim, as previsões de parâmetros de qualidade do ar são difíceis de serem determinadas. A qualidade do ar depende de emissões, de meteorologia e topografia. Os dados observados foram o dióxido de nitrogênio (NO2), monóxido de nitrogênio (NO), óxidos de nitrogênio (NOx), monóxido de carbono (CO), ozônio (O3), velocidade escalar vento (VEV), radiação solar global (RSG), temperatura (TEM), umidade relativa (UR) e foram coletados através da estação móvel de monitoramento da Secretaria do Meio Ambiente (SMAC) do Rio de Janeiro em dois locais na área metropolitana, na Pontifícia Universidade Católica (PUC-Rio) e na Universidade do Estado do Rio de Janeiro (UERJ) no ano de 2011 e 2012. Este estudo teve três objetivos: (1) analisar o comportamento das variáveis, utilizando o método de análise de componentes principais (PCA) de análise exploratória, (2) propor previsões de níveis de O3 a partir de poluentes primários e de fatores meteorológicos, comparando a eficácia dos métodos não lineares, como as redes neurais artificiais (ANN) e regressão por máquina de vetor de suporte (SVM-R), a partir de poluentes primários e de fatores meteorológicos e, finalmente, (3) realizar método de classificação de dados usando a classificação por máquina de vetor suporte (SVM-C). A técnica PCA mostrou que, para conjunto de dados da PUC as variáveis NO, NOx e VEV obtiveram um impacto maior sobre a concentração de O3 e o conjunto de dados da UERJ teve a TEM e a RSG como as variáveis mais importantes. Os resultados das técnicas de regressão não linear ANN e SVM obtidos foram muito próximos e aceitáveis para o conjunto de dados da UERJ apresentando coeficiente de determinação (R2) para a validação, 0,9122 e 0,9152 e Raiz Quadrada do Erro Médio Quadrático (RMECV) 7,66 e 7,85, respectivamente. Quanto aos conjuntos de dados PUC e PUC+UERJ, ambas as técnicas, obtiveram resultados menos satisfatórios. Para estes conjuntos de dados, a SVM mostrou resultados ligeiramente superiores, e PCA, SVM e ANN demonstraram sua robustez apresentando-se como ferramentas úteis para a compreensão, classificação e previsão de cenários da qualidade do ar
Resumo:
No presente estudo monitoramos uma população de Diplodon ellipticus Spix in Wagner, 1827 da lagoa dos Caiçaras, Piraí, Rio de Janeiro, e avaliamos alguns aspectos conquiliomorfológicos da larva e do adulto, a relação peso-comprimento, os padrões populacionais tais como crescimento, mortalidade e expectativa de vida, e o ciclo larval. Amostragens mensais foram realizadas de novembro/2012 a novembro/2013 em três pontos da lagoa. Em cada ponto, definimos uma area de 15 m2, que foi subdividida em 15 quadrados de 1m2 cada. Os bivalves foram procurados por três coletores, usando mãos e pés, totalizando 45 minutos de coleta/área. Posteriormente, foram medidos com um paquímetro em relação ao comprimento total, marcados e devolvidos a lagoa. Quinze bivalves foram coletados e analisados em laboratório durante dois anos. Os fatores abióticos (condutividade, temperatura da água, temperatura do ambiente, umidade, pH e oxigênio dissolvido) foram mensurados e amostragens do sedimento e da água foram realizados em cada ponto. Os indivíduos foram agrupados em classes de comprimento com intervalo de 2,0 mm para análise da estrutura de comprimento da população. Os parâmetros de curva de crescimento foram estimados pela rotina ELEFAN (distribuição de frequência) e pelo método de Gulland-Holt (marcação e recaptura), ambos no programa FISAT. A mortalidade foi calculada pelo método da curva de captura convertida em comprimento e a expectativa de vida foi calculada pela equação invertida de von Bertalanffy. Ao todo, 3474 bivalves foram marcados e 1849 recapturados, alguns deles mais de uma vez. O menor bivalve recapturado mediu 23,58 mm e foi recapturado 127 dias depois com 25,50 mm e o maior bivalve recapturado mediu 62,14 mm e foi recapturado 31 dias depois com 62,20 mm. Pelo método indireto analizamos 6922 bivalves com comprimentos variando de 11,37 a 62,49 mm. A maior frequência de comprimento foi encontrada em tamanhos intermediários de 44-46 mm, como foi observado em outras populações de Diplodon. A análise do crescimento, mortalidade e expectativa de vida foram similares em ambos os métodos, por isso, utilizamos em conjunto para ajustar a curva de crescimento da população. A relação peso-comprimento foi alta (r = 0,7-0,8). A avaliação do ciclo reprodutivo indica uma continuidade no desenvolvimento larval ao longo dos meses, à exceção de janeiro/2014. Contabilizamos um total de 54.617 gloquídios, havendo mais indivíduos grávidos com gloquídios (n=5) nos meses de julho e setembro de 2014. Padrão similar foi encontrado em outras espécies de bivalves de água doce, inclusive em Diplodon ellipticus no estado do Paraná. Os gloquídios maduros foram encontrados em amplitudes de temperaturas de 20,1-25,27C e acreditamos que a temperatura pode influenciar na liberação dos mesmos. Os bivalves com o maior e o menor número de gloquídios foram encontrados em novembro/2013 (n= 4759) e setembro/2014 (n= 212), respectivamente. A correlação entre o comprimento do marsúpio e o tamanho da ninhada foi testada pela primeira vez nesse gênero e foi significativa (r= 0,303 , p<0,05). As informações deste estudo são relevantes ao conhecimento da espécie e às futuras ações de gestão que tenham como objetivo preservar as espécies de Diplodon
Resumo:
O setor de saúde pública convive com uma constante escassez de recursos combinada com uma necessidade crescente de investimentos em tecnologia e inovação. Portanto, é necessário que os gestores públicos de saúde busquem maneiras de maximizar o uso destes recursos orçamentários escassos. Uma das alternativas é implementar estudos sobre custos, que possibilitem ao gestor exercer o controle, o combate ao desperdício e o planejamento dos investimentos futuros. No entanto, na área governamental, existem outros grupos, além do gestor, que têm interesse em conhecer as informações de custos do setor de saúde. Esses grupos são chamados pela teoria da administração de Stakeholders. Cada stakeholder, tais como médicos, pacientes, fornecedores, sociedade entre outros podem demandar informações distintas de custos. Por este motivo, o objetivo deste trabalho é investigar qual o método de custeio que melhor se adequa as necessidades dos diferentes stakeholders de um hospital público. Para tanto, elaborou-se uma pesquisa bibliográfica que abordasse os métodos de custeio por absorção, custeio variável e custeio baseado em atividades, que são os métodos mais debatidos pela literatura contábil. Dessa forma, com objetivo de responder a questão de pesquisa, o presente trabalho desenvolve um cenário hipotético de um hospital universitário público, no qual estão identificados os seus stakeholders e suas respectivas necessidades de informações de custo. Como resultado das análises, observa-se que cada um destes stakeholders apresenta um método de custeio, ou uma combinação de dois destes, que melhor se adequa as suas necessidades de informação de custos.
Resumo:
A presente pesquisa consiste em um panorama das práticas educativas desenvolvidas pelas ONGs atuantes como Pontos de Cultura situadas na região da Baixada Fluminense. Este trabalho tem como objetivo geral analisar as ações desenvolvidas pelas ONGs contempladas como pontos de cultura na região da Baixada Fluminense de acordo com os seguintes objetivos específicos: identificar aquelas ações que podem ser consideradas de caráter educativo não-formal e as relações entre estas ações ao conceito de cultura política. A partir da discussão dos conceitos de Cultura apresentados por Marilena Chauí, do histórico das políticas culturais no Brasil, por Antonio Albino Canelas Rubim e das definições que originaram o programa fruto de uma política pública recente no Brasil, estas ações são entendidas dentro da categoria não-formal. Assim sendo, há a discussão do papel da educação não-formal nestes processos através do desenvolvimento dos conceitos por autores como Maria da Glória Gohn, José Carlos Libâneo e Jaume Trilla, uma descrição da região e a análise de dados oriunda das respostas obtidas através de duas entrevistas e dez formulários respondidos pelos gestores responsáveis pelas organizações em 2014. Os resultados encontrados indicaram que o Programa Cultura Viva atua como uma espécie de preenchimento das lacunas apresentadas por Gohn no que se refere à educação não-formal e de que embora as organizações possuam campos de atuação bem heterogêneos, as práticas educativas realizadas possuem em comum a abordagem da cultura como direito humano e que estas podem ser uma mola propulsora para a construção de uma nova cultura política.
Resumo:
Uma simulação numérica que leva em conta os efeitos de estratificação e mistura escalar (como a temperatura, salinidade ou substância solúvel em água) é necessária para estudar e prever os impactos ambientais que um reservatório de usina hidrelétrica pode produzir. Este trabalho sugere uma metodologia para o estudo de escoamentos ambientais, principalmente aqueles em que o conhecimento da interação entre a estratificação e mistura pode dar noções importantes dos fenômenos que ocorrem. Por esta razão, ferramentas de simulação numérica 3D de escoamento ambiental são desenvolvidas. Um gerador de malha de tetraedros do reservatório e o modelo de turbulência algébrico baseado no número de Richardson são as principais ferramentas desenvolvidas. A principal dificuldade na geração de uma malha de tetraedros de um reservatório é a distribuição não uniforme dos pontos relacionada com a relação desproporcional entre as escalas horizontais e verticais do reservatório. Neste tipo de distribuição de pontos, o algoritmo convencional de geração de malha de tetraedros pode tornar-se instável. Por esta razão, um gerador de malha não estruturada de tetraedros é desenvolvido e a metodologia utilizada para obter elementos conformes é descrita. A geração de malha superficial de triângulos utilizando a triangulação Delaunay e a construção do tetraedros a partir da malha triangular são os principais passos para o gerador de malha. A simulação hidrodinâmica com o modelo de turbulência fornece uma ferramenta útil e computacionalmente viável para fins de engenharia. Além disso, o modelo de turbulência baseado no número de Richardson leva em conta os efeitos da interação entre turbulência e estratificação. O modelo algébrico é o mais simples entre os diversos modelos de turbulência. Mas, fornece resultados realistas com o ajuste de uma pequena quantidade de parâmetros. São incorporados os modelos de viscosidade/difusividade turbulenta para escoamento estratificado. Na aproximação das equações médias de Reynolds e transporte de escalar é utilizando o Método dos Elementos Finitos. Os termos convectivos são aproximados utilizando o método semi-Lagrangeano, e a aproximação espacial é baseada no método de Galerkin. Os resultados computacionais são comparados com os resultados disponíveis na literatura. E, finalmente, a simulação de escoamento em um braço de reservatório é apresentada.
Resumo:
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.
Resumo:
Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.
Resumo:
A Costa Peruana apresenta alta atividade sísmica, tornando imprescindível a execução de análises de estabilidade que considerem os eventos sísmicos. Com o desenvolvimento de novas ferramentas numéricas, a análise dinâmica está se tornando cada vez mais importante e usual na fase de projeto, não se justificando mais a execução de análises estáticas em locais tão vulneráveis a sismos. A presente dissertação tem como objetivo realizar a análise da estabilidade dos Penhascos de Lima, Peru, considerando quatro taludes distintos, em uma região bastante afetada por abalos sísmicos. As análises foram executadas pelos métodos de equilíbrio limite, elementos finitos e pseudo-estático, buscando-se uma comparação entre os diferentes métodos. O trabalho apresenta uma descrição completa dos taludes em estudo, uma avaliação da condição sismológica da região e finalmente a estabilidade dos Penhascos de Lima, fazendo uso dos programas computacionais Slide (método do equilíbrio limite) e Plaxis (método dos elementos finitos) em 2D. Os resultados mostraram que os três métodos adotados forneceram fatores de segurança compatíveis, principalmente quando se considera perfis menos estratificados. Para perfis homogêneos, as diferenças obtidas foram da ordem de 0,5 a 1,0 %. As análises ressaltaram a importância de considerar a condição dinâmica, e mostraram-se bastante sensíveis aos valores de carga sísmica adotado.
Resumo:
A presente pesquisa objetiva identificar o estado de compatibilidade entre os instrumentos contábeis de mensuração de ativos intangíveis e aqueles utilizados para estabelecer o valor econômico de atletas de futebol. Para isso, foi realizado um estudo de caso único em uma empresa de consultoria que realiza tal avaliação de atleta, com intuito de aprofundar na pesquisa de forma exploratória. As técnicas utilizadas para dar suporte à pesquisa foram análise documental e pesquisa semiestruturada, que contribuíram com os objetivos específicos deste estudo, além da análise bibliográfica. Como resultado de pesquisa pode-se verificar um alinhamento entre os indicadores de avaliação de atletas de futebol utilizados pela empresa objeto desse estudo e aqueles utilizados pelos métodos contábeis para avaliação dos ativos intangíveis com foco no capital humano. Dessa forma, o resultado apresentou a identificação de dez indicadores de alinhamentos, evidenciando uma padronização dos métodos e contribuindo com a redução da subjetividade na forma de avaliar os ativos intangíveis de uma maneira geral.
Resumo:
Este trabalho pretende verificar o alinhamento entre os indicadores de inovação utilizados pelos métodos Scorecard de mensuração dos ativos intangíveis e pelas agências governamentais nacionais e internacionais com aqueles utilizados pelos fundos de capital de risco na cidade do Rio de Janeiro, para investimento em empresas spin-offs acadêmicas incubadas. A metodologia constou de uma revisão bibliográfica sobre os métodos de mensuração e valoração dos ativos intangíveis, indicadores de inovação propostos por agências governamentais nacionais e internacionais e fundos de capital de risco que atuam na cidade do Rio de Janeiro. Além de serem aplicados questionários nas empresas de fundos de capital de risco desta cidade. Foram levantados diversos métodos Scorecards na literatura com seus indicadores, além dos indicadores de inovação de agências governamentais nacionais e internacionais. Adicionando-se a isso, identificou-se o foco de investimento, o processo de seleção, o método utilizado de avaliação de oportunidades de investimento e indicadores relevantes para as empresas de capital de risco da cidade do Rio de Janeiro. Observou-se que os ativos intangíveis, entre eles os de inovação, não são avaliados individualmente. A informação obtida com as empresas que receberão investimentos dessas empresas de capital de risco é utilizada para se entender a origem dos fluxos de caixa projetados e os principais fatores de risco. E esses dados aplicados ao método do fluxo de caixa descontado permitem que se estime o valor da empresa. Pela vasta experiência dos gestores dos fundos de capital de risco com micro e pequenas empresas inovadoras, espera-se que o estudo das práticas deste segmento traga importantes reflexões para as discussões relativas aos ativos intangíveis e a inovação.
Resumo:
Estudo de comparação entre dois métodos de coleta de dados, através da aplicação de um software, para avaliação dos fatores de risco e danos no trabalho de enfermagem em hospital. Objetiva analisar o uso do software (eletrônico) em comparação com o uso do instrumento impresso. Trata-se de um estudo estatístico, descritivo com abordagem quantitativa, desenvolvido nas enfermarias dos Serviços de Internações Clínicas e Serviços de Internações Cirúrgicas de um Hospital Universitário, no estado do Rio de Janeiro. A população do estudo foram os trabalhadores de enfermagem das unidades. A amostra foi definida por meio de amostragem não-probabilística e alocação da amostra ocorreu de forma aleatória em dois grupos, denominados grupo impresso e grupo eletrônico, com 52 participantes cada. Previamente a coleta de dados foram implementadas estratégias de pesquisa denominada teaser, através da comunicação digital aos trabalhadores. Posteriormente, foi ofertado aos participantes do formato impresso o questionário impresso, e os participantes do formato eletrônico receberam um link de acesso a home page. Os dados foram analisados através da estatística descritiva simples. Após a aplicação do questionário nos dois formatos, obteve-se resposta de 47 trabalhadores do grupo impresso (90,3%), e 17 trabalhadores do grupo eletrônico (32,7%). A aplicação do questionário impresso revelou algumas vantagens como o número de pessoas atingidas pela pesquisa, maior interação pesquisador e participante, taxa de retorno mais alta, e quanto às desvantagens a demanda maior de tempo, erros de transcrição, formulação de banco de dados, possibilidades de resposta em branco e erros de preenchimento. No formato eletrônico as vantagens incluem a facilidade de tabulação e análise dos dados, impossibilidade de não resposta, metodologia limpa e rápida, e como desvantagens, o acesso à internet no período de coleta de dados, saber usar o computador e menor taxa de resposta. Ambos os grupos observaram que o questionário possui boas instruções e fácil compreensão, além de curto tempo para resposta. Os trabalhadores perceberam a existência dos riscos ocupacionais, principalmente os ergonômicos, biológicos e de acidentes. Os principais danos à saúde provocados ou agravos pelo trabalho percebidos pelos trabalhadores foram os problemas osteomusculares, estresse, transtornos do sono, mudanças de humor e alterações de comportamento e varizes. Pode-se afirmar que não ocorreram diferenças acentuadas de percentual ao comparar a percepção dos trabalhadores do grupo impresso e do grupo eletrônico frente aos riscos e danos à saúde. Conclui-se que os dois processos de coleta de dados tiveram boa aceitação, no entanto, deve ser indicada a aplicação do questionário eletrônico junto com a ferramenta de acesso, no caso o computador, tablet.
Resumo:
Cleome dendroides é uma espécie endêmica da Mata Atlântica dos estados do Rio de Janeiro e Espírito Santo, bioma alterado por intensa atividade antrópica, o que constitui uma ameaça à preservação de suas populações. Não existem estudos dos pontos de vista fisiológico, biotecnológico, fitoquímico ou farmacológico sobre a espécie. Considerando-se o perfil fitoquímico e o potencial medicinal do gênero, torna-se relevante definirem-se protocolos para a produção de plantas e metabólitos de C. dendroides utilizando diferentes sistemas de cultivo in vitro. No presente trabalho, foram realizados estudos sobre a germinação in vivo da espécie, avaliando-se a influência do substrato, temperatura e luz. Não se observou qualquer tipo de dormência, sendo as temperaturas de 20, 25 e 20-30C, em areia ou vermiculita, apropriadas para a germinação in vivo. Definiu-se também uma metodologia eficiente de germinação sob condições in vitro, e as plântulas obtidas foram utilizadas como fonte de explantes para os estudos de propagação in vitro. A resposta morfogênica foi avaliada considerando-se a origem e tipo do explante, tipos e concentrações de reguladores de crescimento e número de subculturas. A metodologia empregada mostrou-se eficiente para a produção de brotos e manutenção de estoques de plantas in vitro que serviram como fonte de explantes. A melhor condição para a propagação in vitro foi definida em meio solidificado contendo BA, independentemente do tipo de explante e da origem. Os brotos obtidos foram alongados, enraizados e aclimatizados. Também foi estabelecida a cultura de raízes e a regeneração de brotos a partir destas culturas. Avaliou-se o efeito da origem do explante, assim como dos tipos e concentrações de fitorreguladores sobre a proliferação de raízes e a regeneração de brotos. O fitorregulador AIB propiciou maior multiplicação das raízes, enquanto BA mostrou-se eficiente na regeneração de brotos a partir das raízes recém-formadas. Foi estabelecido ainda um protocolo de cultura de calos e de suspensões celulares. Avaliou-se o efeito da origem e do tipo de explante, dos tipos e das concentrações de fitorreguladores sobre a calogênese. A combinação de PIC com KIN foi a mais eficiente para a indução de calos em explantes de plântulas obtidas a partir de germinação in vitro, produzindo calos que foram mantidos por pelo menos dois anos. As suspensões celulares também foram estabelecidas em meio contendo PIC + KIN, mantendo uma produção de biomassa de cerca de cinco vezes o peso fresco inicial por três sucessivas subculturas. Análises histoquímicas e fitoquímicas revelaram a presença de alcaloides nos calos e nas suspensões celulares. Foram realizadas análises fitoquímicas de plantas de campo, plantas aclimatizadas, plantas mantidas em estoque in vitro e culturas de raízes, as quais indicaram a presença de derivados de glicosinolatos. Os resultados demonstraram a viabilidade de produção de material vegetal de C. dendroides por meio de métodos biotecnológicos e a produção in vitro de metabólitos de importância medicinal
Resumo:
A alteração no sistema de controles internos da empresa estudada teve como marco principal a mudança do foco no trabalho da auditoria interna, que começou a desempenhar suas atividades de forma estruturada e seguindo uma metodologia específica; além, de perseguir um objetivo estratégico da organização. A auditoria interna, antes do processo de certificação do sistema de controles internos exigido pela seção 404 da SOX, era apenas um instrumento de detecção de erros e compliance fiscal, que baseava seus trabalhos somente em fatos passados, com a constatação de deficiências de controles. Todavia, sem assessorar a alta a administração da empresa na resolução das deficiências, objetivando a implementação das melhorias dos controles internos. Com a necessidade de certificação da eficácia dos controles internos, a partir do ano de 2005, o foco dos trabalhos de auditoria interna foi direcionado para lograr melhorias nos métodos de controle, gestão de riscos, prevenção de fraudes e erros, nos processos operacionais, contábeis e financeiros da organização. O objetivo dessa pesquisa foi, por meio de estudo de caso único, mensurar os principais procedimentos realizados para a implantação do sistema de controles internos da empresa estudada, incluindo a metodologia adotada, o modelo escolhido, o processo de controle estabelecido, a identificação e avaliação dos principais riscos e controles, bem como a forma de seleção, avaliação e teste dos controles internos existentes. Buscou-se coletar dados preconizados pela literatura de autores renomados e analisar as diversas bibliografias, com o objetivo de comparar com a pesquisa que foi realizada nos documentos fornecidos pela empresa analisada. Este estudo levantou pontos importantes sobre o processo de gestão da empresa e da forma como se utilizou da auditoria interna como ferramenta para a melhoria de seus controles internos. Destacam-se a geração de valor empresarial que um bom ambiente de controle interno traz e os motivos que levam uma organização a implementar uma área de auditoria interna, com especial atenção ao foco de assessoramento e consultoria, alinhado as práticas internacionais de auditoria interna. Entretanto, apesar de observar melhorias na atuação da auditoria interna da organização, constata-se a necessidade de alinhamento de algumas práticas internacionais, ainda não implementadas. Descobriu-se, também, que a auditoria interna, com o devido emporwerment da alta administração, e utilizando-se das técnicas atuais e internacionais, aumentam a confiabilidade do sistema de controles internos e com isso geram valor às suas organizações. Nesta pesquisa pôde-se constatar a utilização da auditoria interna como ferramenta de gestão de recursos organizacionais, ocasionando melhorias no sistema de controles internos da empresa, e ficando constatada, por meio de auditoria executada por firma independente, a irrefutável melhoria dos controles internos da organização estudada.
Resumo:
A relação causal entre métodos de projeto e a usabilidade de produtos de comunicação e informação foi o tema desse estudo que buscou identificar o estado da arte sobre um processo de projeto que resulte em mais usabilidade na web. A partir dessa identificação, avaliou-se as melhorias que poderiam ser adotadas nos processos de desenvolvimento de interfaces utilizados por uma equipe específica da Fundação Oswaldo Cruz (CTIC - Fiocruz). Entendeu-se que um método de projeto deve estar atualizado em relação aos conhecimentos de áreas como a Ergonomia, a Interação Humano-computador e o Design de Interação. Para isso, adotou-se a hipótese de que o processo de projeto deve combinar três aspectos: a) um significativo envolvimento do usuário ao longo do processo; b) o uso de sucessivas iterações para configurar o produto e c) uma combinação mínima de técnicas relacionadas a objetivos específicos de cada fase de uma abordagem de Design Centrado no Usuário. Para contribuir com o desenvolvimento de métodos e técnicas que melhorem a usabilidade, descreveu-se as características dos métodos registrados na literatura e praticados por profissionais externos à Fundação Oswaldo Cruz (Fiocruz). A partir dessas informações, o estudo direcionou-se para o segundo objetivo específico: identificar melhorias nos métodos e técnicas aplicáveis no caso do CTIC Fiocruz. Através da combinação da revisão de literatura e da pesquisa de campo foram produzidas informações sobre tipos de fluxo dos métodos, tipos de envolvimento dos usuários, quantidade e gravidade de problemas de usabilidade observadas pelos profissionais e a validade de base geral de método para diferentes produtos. A primeira rodada de entrevista foi realizada para melhor entender o contexto da hipótese e a relação entre suas variáveis. A segunda rodada identificou as características do processo de projeto utilizado no CTIC. A partir dessas informações, aplicou-se duas técnicas com profissionais externos. Um questionário on-line foi utilizado para levantar informações bem específicas, em sua maioria de características quantitativas. A última técnica aplicada foi um card sorting on-line que apresentou um caso de projeto em que os profissionais indicaram quais técnicas seriam utilizadas diante de dois cenários diferentes: um mais favorável e outro restritivo. A análise demonstrou que a maioria dos profissionais acredita que os problemas de usabilidade são consequência da falta de determinadas abordagens e técnicas. Por isso, esses profissionais combinam fluxos iterativos com um significativo envolvimento do usuário no processo. Foram sugeridas melhorias para o método utilizado no CTIC sintetizadas através de um processo de Design Centrado no Usuário como ponto de partida que aplica o conceito tradicional de usabilidade (performance). Assim que possível, esse processo deve ser aperfeiçoado ao incluir o conceito de experiência do usuário que considera também os aspectos emocionais e hedonômicos na interação.