902 resultados para Ferramentas TAC
Resumo:
Resumen basado en el de la publicaci??n
Resumo:
Perante o agravamento das problemáticas atmosféricas a maior parte dos países mundo tem adotado ações concertadas e conjuntas tendentes a responder a estas realidade. No quadro da União Europeia, bloco económico e político ao qual Portugal pertence como estado-membro, tem vindo a ser desenvolvido um forte programa de combate à poluição atmosférica. Seguindo as principais linhas de orientação dos seus predecessores mas, ao mesmo tempo, trilhando novos caminhos para atingir desafiantes metas, o Sexto Programa de Ação em matéria de Ambiente (6.º PAA) pretende atingir níveis de qualidade do ar que não impliquem efeitos negativos nem riscos significativos para a saúde humana e o ambiente. A União Europeia tem pautado a sua atuação numa ótica de concertação de políticas e legislação como forma de reduzir as emissões atmosféricas dentro do seu espaço territorial. A articulação entre as políticas comunitárias que visam reduzir a exposição à poluição atmosférica e a produção legislativa em matéria da qualidade do ar, nomeadamente, a fixação de valores limites de emissão para os diferentes poluentes nas zonas e aglomeração das nossas cidades, encontra na gestão ambiental do recurso ar os conceitos e estratégias de atuação práticas fundamentais para, atuando como uma placa giratória de Ação, efeitos e resultados, se possa uniformizar e harmonizar as necessidades reais com a resposta política e legal nestas questões. Expor e compreender as metodologias, ferramentas e instrumentos legais ao serviço destes dois eixos (politicas e legislação) será o objetivo deste texto.
Resumo:
As empresas do segmento de alimentação coletiva cresceram significativamente nos últimos anos, influenciadas, principalmente, pela exigência dos usuários que têm como referência a grande variedade de produtos e serviços disponíveis no consumo de refeições fora do âmbito doméstico. A quantidade de pessoas que se alimenta fora de casa é cada vez maior, devido a fatos como crescimento das cidades, inserção da mulher no mercado de trabalho e tempo indisponível para o preparo das refeições. Para garantir a segurança dos alimentos oferecidos, é necessária a aplicação de ferramentas da qualidade como as Boas Práticas, procedimentos operacionais padronizados e outras, que devem ser adotadas na linha de processamento de alimentos com o objetivo de evitar possíveis doenças transmitidas por alimentos. O objetivo da presente pesquisa foi de analisar a importância da utilização das ferramentas da qualidade no processamento das preparações culinárias produzidas em uma Unidade de Alimentação e Nutrição (UAN) na cidade de Belém do Pará. Foram coletadas 50 amostras de preparações culinárias produzidas no estabelecimento onde foi observada contaminação de 36% por coliforme a 45ºC,16% por S. aureus e 4% por salmonella spp., foi aplicado um check-list (lista de verificação) baseada na legislação vigente, de forma a identificar as não-conformidades apresentadas pelos estabelecimentos.Os resultados mostraram que 47,4% dos itens de boas práticas não estão sendo aplicadas no estabelecimento. Observou-se durante a pesquisa na Unidade de Alimentação e Nutrição que as ferramentas da qualidade não são aplicadas e algumas são aplicadas inadequadamente durante o processamento das preparações culinárias, concorrendo para a possibilidade de ofertar aos comensais de produtos impróprios para o consumo. Conclui-se que a utilização das ferramentas da qualidade são importantes recursos para a obtenção da garantia da qualidade que podem ser aprimoradas através do desenvolvimento de treinamentos de habilidades e percepção para trabalhar atitudes de cada colaborador dentro da linha de produção de alimentos seguros.
Resumo:
A infecção pelo vírus da dengue é um problema de saúde pública global que põe em risco cerca de 2,5 bilhões de pessoas no mundo, com uma incidência de 50-100 milhões de casos resultando em cerca de 24.000 mortes por ano. Os mecanismos envolvidos na resposta imune inata atuam imediatamente após o contato do hospedeiro com os antígenos virais, levando à secreção de interferon do tipo I (IFN-I), a principal citocina envolvida na resposta antiviral. Entender como o sistema IFN-I é inibido em células infectadas pelo vírus dengue pode fornecer valiosas informações sobre a patogênese da doença. Propomos neste estudo analisar a inibição da via de sinalização do IFN-I por diferentes cepas isoladas no estado de Pernambuco, assim como o desenvolvimento de um vírus recombinante da dengue expressando a proteína Gaussia luciferase, para estudos futuros de replicação e imunopatogênese. A fim de estudar a via de sinalização do IFN-I, foram selecionadas cepas dos quatro sorotipos de dengue para crescimento, concentração e titulação viral. Foi utilizada a linhagem celular BHK-21-ISRE-Luc-Hygro que expressa o gene firefly luciferase fusionado a um promotor induzido pelo IFN-I (ISRE - Interferon Stimulated Response Element). Observamos que todos os sorotipos em estudo foram capazes de inibir, em diferentes proporções, a resposta ou sinalização do IFN-I. Com o intuito de auxiliar as pesquisas em dengue, desenvolvemos um vírus repórter de dengue expressando o gene repórter da Gaussia luciferase. Células transfectadas com o transcrito in vitro de um dos clones resultou em imunofluorescência positiva, porém não houve recuperação de partículas infectivas. Outros clones deverão ser testados para recuperação de vírus recombinante repórter. Juntos, os dados da caracterização das cepas em estudo e a recuperação de partículas infectivas da construção realizada neste trabalho deverão contribuir para as pesquisas em imunopatogênese, replicação viral e desenvolvimento de antivirais contra o dengue
Resumo:
Dissertação de Mestrado apresentada como exigência para obtenção do título de Mestre em Administração no Programa de Pós-Graduação em Administração - Mestrado da Universidade Municipal de São Caetano do Sul.
Resumo:
Esta pesquisa tem como tema a avaliação de ferramentas de mineração de dados disponíveis no mercado, de acordo com um site de descoberta do conhecimento, chamado Kdnuggets (http://www.kdnuggets.com). A escolha deste tema justifica-se pelo fato de tratar-se de uma nova tecnologia de informação que vem disponibilizando diversas ferramentas com grandes promessas e altos investimentos, mas que, por outro lado, ainda não é amplamente utilizada pelos tomadores de decisão das organizações. Uma das promessas desta tecnologia é vasculhar grandes bases de dados em busca de informações relevantes e desconhecidas e que não poderiam ser obtidas através de sistemas chamados convencionais. Neste contexto, realizar uma avaliação de algumas destas ferramentas pode auxiliar a estes decisores quanto à veracidade daquilo que é prometido sem ter de investir antes de estar seguro do cumprimento de tais promessas. O foco da pesquisa é avaliar sistemas que permitem a realização da análise de cesta de supermercado (market basket analysis) utilizando bases de dados reais de uma rede de supermercados. Os seus objetivos são: avaliar ferramentas de mineração de dados como fonte de informações relevantes para a tomada de decisão; identificar, através da revisão de literatura, as promessas da tecnologia e verificar se tais promessas são cumpridas pelas ferramentas; identificar e caracterizar ferramentas de mineração de dados disponíveis no mercado e comparar os tipos de resultados gerados pelas diferentes ferramentas e relatar problemas encontrados durante a aplicação destas ferramentas. O desenvolvimento do trabalho segue o método estudo de caso múltiplo: os dados foram coletados a partir da aplicação das ferramentas às bases de dados e da entrevista com tomadores de decisão da empresa. Foram seguidos procedimentos já utilizados de avaliação de sistemas para a realização desta pesquisa. A partir da análise dos dados coletados, pôde-se conhecer alguns problemas apresentados pelas ferramentas e concluiu-se que as ferramentas, que foram utilizadas neste trabalho, não estão prontas para serem disponibilizadas no mercado.
Resumo:
Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.
Resumo:
A simulação é uma das ferramentas mais utilizadas para a aplicação da análise sistêmica nos mais diversos estudos. Ao longo do tempo, vários modelos foram desenvolvidos para representar sistemas de recursos hídricos, utilizando a simulação. Dentre esses modelos, está o Propagar MOO, que simula a propagação de vazões em uma bacia hidrográfica, submetida à decisões operacionais de suprimento de demandas e de operação de reservatórios, introduzidas pelo usuário através de rotinas escritas na linguagem de programação Pascal Script. A utilização eficiente dessas rotinas permite ao usuário ampliar a capacidade e flexibilidade do modelo na representação de um sistema hídrico. Com o objetivo de contribuir na ampliação da flexibilidade do modelo Propagar MOO e de sua aplicabilidade à modelagem de sistemas de recursos hídricos em geral, bem como facilitar o estudo da linguagem de programação Pascal Script e motivar os profissionais da área no desenvolvimento de novas rotinas aplicadas ao modelo, foram implementadas, através do presente trabalho, rotinas genéricas contendo estratégias de planejamento do uso da água e de operação de reservatórios, bem como ferramentas para analisar seus resultados. Para ampliar essa contribuição, foi aprimorada a possibilidade de simulação da geração de energia hidrelétrica em pontos de uma rede hidrográfica, com a criação de novas ferramentas para esse fim, na estrutura interna do modelo. Por fim, para que o próprio usuário pudesse construir ferramentas para auxiliar na verificação dos resultados obtidos nas simulações, esse estudo apresenta a implementação de rotinas de uso geral para servir como exemplos de ferramentas de análise de dados.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
Este trabalho tem como objetivo estudar a influência do tratamento superficial, através da técnica de nitretação a plasma, no processo de fresamento com fresas de aço rápido AISI M2. Foram investigados os efeitos deste tratamento superficial no processo de corte, variando-se a forma de refrigeração/lubrificação das fresas com fluído de corte convencional (emulsão) em abundância, com minimização e sem fluído (lubrificação a seco). Na nitretação, a composição da mistura de gases utilizada nos experimentos foi de 5% N2 e 95% H2 em volume, a uma pressão de tratamento de 5 mbar (3,8 Torr). A temperatura utilizada foi de 440oC, durante um tempo de tratamento de 30 minutos, resultando em uma camada nitretada com uma zona de difusão com aproximadamente 8µm de profundidade. As ferramentas empregadas no processo de fresamento foram investigadas através de medição de forças de usinagem, medições de desgaste na superfície de incidência (flanco) e na superfície de saída (face), sendo as camadas nitretadas caracterizadas por metalografia óptica e microdureza. Foi observado um desempenho superior das fresas nitretadas apenas para as condições de corte a seco.
Resumo:
Apesar da grande evolução, a questão da precificação de ativos encontra-se ainda cercada de incertezas e indefinições quanto à forma como esta deve ser feita. A incerteza por parte dos investidores em relação aos resultados a serem obtidos em suas aplicações no mercado financeiro gera forte demanda por modelos mais precisos quanto à capacidade de quantificação do retorno esperado. Este trabalho procura, em uma análise preliminar, estudar, utilizando o tratamento estatístico de regressão múltipla, os fatores explicativos dos retornos diferenciais das ações na Bolsa de Valores de São Paulo (Bovespa) no período de janeiro de 1995 a dezembro de 1999. Em seguida, visa-se analisar, através de um teste comparativo de desempenho envolvendo simulação de investimentos em portfolios de ações, a capacidade do Modelo de Fator de Retorno Esperado de Haugen e Baker (1996) e da APT (Arbitrage Pricing Theory) de Ross (1976) em prognosticar os retornos das 70 ações incluídas na amostra. Por fim, levanta-se o perfil de risco e liquidez dos portfolios selecionados pelos modelos a fim de verificar a relação risco-retorno. Os resultados apontaram sete fatores capazes de explicar o retorno diferencial mensal das ações. Contrapondo-se aos pressupostos teóricos, nenhum fator de risco inseriu-se no grupo de fatores selecionados. Já os fatores que apresentaram significância estatística em suas médias, dois inserem-se no grupo liquidez, três referem-se aos parâmetros de valor das ações e dois estão relacionados ao histórico de preços das ações. Comparando os resultados obtidos pelos modelos inseridos neste estudo, conclui-se que o Modelo de Fator de Retorno Esperado é mais eficiente na tarefa de predizer os retornos futuros das ações componentes da amostra. Este, além de ter alcançado uma média de retornos mensais superior, foi capaz de sustentar retorno acumulado superior ao da APT durante todo o período de teste (jan/2000 a dez/2002). Adicionalmente, o uso deste modelo permitiu selecionar portfolios com um perfil de menor risco.
Resumo:
O objeto de estudo desta dissertação é a aplicação de ferramentas para o controle da qualidade e melhoria do processo de produção de uma etapa construtiva de edificações residenciais. As ferramentas aplicadas são: i) controle estatístico do processo – CEP, e; ii) dispositivos Poka-Yoke. A etapa construtiva mencionada é a elevação da estrutura de concreto armado. O estudo foi motivado pela necessidade de melhorar o sistema de manufatura de uma empresa construtora de Porto Alegre – RS, com vistas a reduzir o tempo de construção de suas edificações (lead-time de produção). Para tanto, a partir de conceitos teóricos do Sistema Toyota de Produção – STP, analisou-se o processo produtivo atual para a referida etapa construtiva, identificaram-se perdas existentes no processo e foram propostas melhorias. As ferramentas de qualidade CEP e Poka-Yoke enquadram-se dentro dessa perspectiva de melhoria. Através da sua aplicação, pretende-se eliminar algumas das perdas existentes no processo de construção melhorando sua produtividade e a qualidade do produto final. A aplicação do CEP tem como objetivo avaliar a capacidade do fornecedor de concreto de atender às exigências dos consumidores, de acordo com o que é estipulado pelas normas brasileiras de fabricação e aceitação de concreto, sem impor-lhes ônus desnecessário. A avaliação é efetuada através do monitoramento da variabilidade da propriedade que melhor caracteriza a qualidade do concreto, qual seja, a sua resistência à compressão axial. Os dispositivos Poka-Yoke, por sua vez, são aplicados com funções de controle da qualidade e prevenção de defeitos e, como ferramentas auxiliares na melhoria de atividades produtivas.