862 resultados para prey development stage


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A new competitive enzyme immunoassay technique has been developed for the determination of concentrations of the trypanocidal drug isometamidium chloride (Samorin) in bovine serum. The method has been shown to be highly repeatable and reproducible, and it has several advantages over previous immunoassay techniques for the drug. There are fewer incubation steps overall; microtitre plates may be of coated in batches and stored frozen for future use; and the competition incubation is overnight and is followed only by a brief colour development stage of 10 min. Coefficients of variation (CVs) of duplicate samples were similar to 5%, and mean response variances of untreated cattle (n = 57) were small (CV, 10%). Partitioning of variance showed 77% of this variability to be intrinsic to the samples, and the remaining 23% was due to the procedure. The limit of detection was approximately 0.5 ng ml(-1), which was considered to be satisfactory for the intended use of the method. The drug could be detected in serum of treated cattle for up to 10 weeks following treatment, and determinations showed a high level of reproducibility.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The IDS (Intrusion Detection System) is a common means of protecting networked systems from attack or malicious misuse. The development and rollout of an IDS can take many different forms in terms of equipment, protocols, connectivity, cost and automation. This is particularly true of WIDS (Wireless Intrusion Detection Systems) which have many more opportunities and challenges associated with data transmission through an open, shared medium.
The operation of a WIDS is a multistep process from origination of an attack through to human readable evaluation. Attention to the performance of each of the processes in the chain from attack detection to evaluation is imperative if an optimum solution is to be sought. At present, research focuses very much on each discrete aspect of a WIDS with little consideration to the operation of the whole system. Taking a holistic view of the technology shows the interconnectivity and inter-dependence between stages, leading to improvements and novel research areas for investigation.
This chapter will outline the general structure of Wireless Intrusion Detection Systems and briefly describe the functions of each development stage, categorised into the following 6 areas:
• Threat Identification,
• Architecture,
• Data Collection,
• Intrusion Detection,
• Alert Correlation,
• Evaluation.
These topics will be considered in broad terms designed for those new to the area. Focus will be placed on ensuring the readers are aware of the impact of choices made at early stages in WIDS development on future stages.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dependability is a critical factor in computer systems, requiring high quality validation & verification procedures in the development stage. At the same time, digital devices are getting smaller and access to their internal signals and registers is increasingly complex, requiring innovative debugging methodologies. To address this issue, most recent microprocessors include an on-chip debug (OCD) infrastructure to facilitate common debugging operations. This paper proposes an enhanced OCD infrastructure with the objective of supporting the verification of fault-tolerant mechanisms through fault injection campaigns. This upgraded on-chip debug and fault injection (OCD-FI) infrastructure provides an efficient fault injection mechanism with improved capabilities and dynamic behavior. Preliminary results show that this solution provides flexibility in terms of fault triggering and allows high speed real-time fault injection in memory elements

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Estatística e Gestão de Informação

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Tutkielma on kvalitatiivinen haastattelututkimus, jonka tavoitteena on tarkastella HR-asiantuntijapalveluiden;konsultoinnin, ulkoistamisen ja vuokrajohtajuuden käyttöä sekä mahdollisuuksia PK-sektorilla. Tutkimuksessa perehdytään myös työn toimeksiantajan, case-yritys Virvon liiketoimintaan HR-asiantuntijapalveluiden markkinoilla ja siihen, miten Virvo pystyy vastaamaan näihin haasteisiin. HR-asiantuntijapalveluiden markkinoiden selvittämiseksi on haastateltu neljää HR-asiantuntijaa. Tämän pohjalta on tehty 15 PK-yrityksen toimitusjohtajan haastattelua HR-asiantuntijapalveluiden käytön selvittämiseksi. Tehdyt haastattelut ovat olleet puolistrukturoituja, jolloin on käytetty valmiita kysymyspohjia. Tutkimuksessa on selvinnyt, että HR-asiantuntijamarkkinat ovat vasta muotoutumassa ja että ala on varsin uusi. PK-yritysten HR-toimintojen haasteisiin pystytään parhaiten vastaamaan HR-asiantuntijapalveluilla, jotka ovat selkeitä kokonaisuuksia ja järkevästi hinnoiteltuja. Tärkeinä asioina on nähty esimerkiksi käytännön toteutus sekä lisäajan saaminen varsinaisen liiketoiminnan hoitamiseen. Palveluiden käyttö korostuu erityisesti erilaisissa muutostilanteissa kuten esimerkiksi yrityksen kasvuvaiheessa. Voidaan todeta myös, että liiketoiminnan tila vaikuttaa HR-asiantuntijapalveluiden käyttöön.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La lithographie et la loi de Moore ont permis des avancées extraordinaires dans la fabrication des circuits intégrés. De nos jours, plusieurs systèmes très complexes peuvent être embarqués sur la même puce électronique. Les contraintes de développement de ces systèmes sont tellement grandes qu’une bonne planification dès le début de leur cycle de développement est incontournable. Ainsi, la planification de la gestion énergétique au début du cycle de développement est devenue une phase importante dans la conception de ces systèmes. Pendant plusieurs années, l’idée était de réduire la consommation énergétique en ajoutant un mécanisme physique une fois le circuit créé, comme par exemple un dissipateur de chaleur. La stratégie actuelle est d’intégrer les contraintes énergétiques dès les premières phases de la conception des circuits. Il est donc essentiel de bien connaître la dissipation d’énergie avant l’intégration des composantes dans une architecture d’un système multiprocesseurs de façon à ce que chaque composante puisse fonctionner efficacement dans les limites de ses contraintes thermiques. Lorsqu’une composante fonctionne, elle consomme de l’énergie électrique qui est transformée en dégagement de chaleur. Le but de ce mémoire est de trouver une affectation efficace des composantes dans une architecture de multiprocesseurs en trois dimensions en tenant compte des limites des facteurs thermiques de ce système.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cryopreservation using encapsulation-dehydration was developed for the long-term conservation of cocoa (Theobroma cacao L.) germplasm. Survival of individually encapsulated somatic embryos after desiccation and cryopreservation was achieved through optimization of cryoprotectants (abscisic acid (ABA) and sugar), duration of osmotic and evaporative dehydration, and embryo development stage. Up to 63% of the genotype SPA4 early-cotyledonary somatic embryos survived cryopreservation following 7 days preculture with 1 M sucrose and 4 h silica exposure (16% moisture content in bead). This optimized protocol was successfully applied to three other genotypes, e.g. EET272, IMC14 and AMAZ12, with recovery frequencies of 25, 40 and 72%, respectively (but the latter two genotypes using 0.75 M sucrose). Recovered SPA4 somatic embryos converted to plants at a rate of 33% and the regenerated plants were phenotypically comparable to non-cryopreserved somatic embryo-derived plants.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This dissertation attempts to reach four goals: 1) to characterize the logistics development stage in two firms from the stone industry, an export firm and a non-export firm; 2) to identify the logistics functions performed by the firms themselves and the activities that are outsourced and also the reasons; 3) to describe the supply chain of the stone industry; 4) to apply a model called Leading Edge Logistics (BOWERSOX et al. 1992) to evaluate the current gaps between these firms in terms of organizational structure, information technology and performance system. This study has demonstrated that the export firm presented more adherence to the model compared to the non-export one, showing better entrepreneurial and operational performance. Furthermore, it has also confirmed the expectations generated by the conceptual model, as follow: the export firm, due to the more complex operational environment, represented by its involvement in a more competitive and demanding sector, i.e. the foreign trade market, has developed a greater level of sophistication of the logistical organization than the non-export one, achieving a better level of flexibility and therefore becoming more competitive.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tese tem por objetivo principal o estudo da relação entre atividade econômica, inflação e política monetária no tocante a três aspectos importantes. O primeiro, a perspectiva histórica da evolução da relação entre atividade e inflação no pensamento econômico. O segundo, a análise da dinâmica inflacionária utilizando um modelo com fundamentação microeconômica, no caso a curva de Phillips Novo-Keynesiana, com uma aplicação ao caso brasileiro. O terceiro, a avaliação da eficiência dos mecanismos de sinalização de política monetária utilizados pelo Banco Central no Brasil com base nos movimentos na estrutura a termo da taxa de juros com a mudança da meta da Selic. O elemento central que une estes ensaios é a necessidade do formulador de política econômica compreender o impacto significativo das ações de política monetária na definição do curso de curto prazo da economia real para atingir seus objetivos de aliar crescimento econômico com estabilidade de preços. Os resultados destes ensaios indicam que o modelo Novo-Keynesiano, resultado de um longo desenvolvimento na análise econômica, constitui-se numa ferramenta valiosa para estudar a relação entre atividade e inflação. Uma variante deste modelo foi empregada para estudar com relativo sucesso a dinâmica inflacionária no Brasil, obtendo valores para rigidez da economia próximos ao comportamento observado em pesquisas de campo. Finalmente, foi aliviada a previsibilidade das ações do Banco Central para avaliar o estágio atual de desenvolvimento do sistema de metas no Brasil, através da reação da estrutura a termo de juros às mudanças na meta da taxa básica (Selic). Os resultados indicam que comparando o período de 2003 a 2008 com 2000 a 2003, verificamos que os resultados apontam para o aumento da previsibilidade das decisões do Banco Central. Este fato pode ser explicado por alguns fatores: o aprendizado do público sobre o comportamento do Banco Central; a menor volatilidade econômica no cenário econômico e o aperfeiçoamento dos mecanismos de sinalização e da própria operação do sistema de metas. Comparando-se o efeito surpresa no Brasil com aqueles obtidos por países que promoveram mudanças significativas para aumentar a transparência da política monetária no período de 1990 a 1997, observa-se que o efeito surpresa no Brasil nas taxas de curto prazo reduziu-se significativamente. No período de 2000 a 2003, o efeito surpresa era superior aos de EUA, Alemanha e Reino Unido e era da mesma ordem de grandeza da Itália. No período de 2003 a 2008, o efeito surpresa no Brasil está próximo dos valores dos EUA e Alemanha e inferiores aos da Itália e Reino Unido.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os investimentos com publicidade na Internet como uma percentagem das despesas totais de publicidade variam significativamente de um país para outro. O número é tão baixo quanto 4,7% no mercado brasileiro e tão alto como 28,5% no mercado britânico (ZenithOptimedia, 2011b). Algumas razões explicam tal disparidade. No nível macro, a participação dos gastos com publicidade na Internet está fortemente ligada a variáveis como o produto interno bruto per capita e à penetração da Internet na população. No nível micro, uma pesquisa qualitativa foi feita para identificar os fatores que contribuem e inibem o crescimento da participação da publicidade online no mercado brasileiro. A vasta lista de inibidores parece ter profundo impacto sobre como os profissionais de mercado tomar decisões de alocação de investimento em publicidade por tipo de mídia. Devido à legislação, à auto-regulamentação e às dinâmicas da indústria, grande parte da tomada de decisão é realizada por agências de publicidade. Estas parecem ter fortes incentivos econômicos para selecionar outros tipos de mídia e não a Internet ao definir planos de mídia. Ao mesmo tempo, a legislação e a auto-regulamentação fornecem desincentivos para corretores de mídia a operar no mercado local. A falta de profissionais qualificados e a padronização limitada também desempenham papéis importante para inibir uma maior participação da Internet nos gastos com publicidade no Brasil. A convergência dos resultados quantitativos com os qualitativos indica possíveis motivos pelos quais a participação da publicidade online no Brasil é tão baixa. Em primeiro lugar, a participação é explicada pelo estágio de desenvolvimento dos países. Quanto mais rico e mais desenvolvido um país, maior a proporção de gastos com publicidade online tende a ser. Em segundo lugar, o estágio econômico emergente do Brasil potencialmente dá espaço para o aumento do ineficiências do mercado, tais como programas de descontos oferecidos de forma desproporcional para os principais decisores de alocação de investimentos de mídia. Este fato aparentemente produz um feedback negativo, contribuindo para manter a baixa participação da publicidade online no total dos investimentos publicitários.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente estudo teve por objetivo uma verificação experimental da influência da estimulação precoce no desenvolvimento cognitivo. A ideias deste trabalho surgiu da importância que ora se atribui ao problema de um melhor aproveitamento do homem em suas potencialidades para a construção de uma humanidade melhor. Tal possibilidade reflete-se primordialmente no âmago do processo educativo, e em particular a escola. Fundamentou-se teoricamente em Gerome Bruner, tendo por central 2 de suas proposições: Qualquer assunto pode ser ensinado com eficiência, de forma honesta, a qualquer criança em qualquer estágio de desenvolvimento; É objetivo primordial da educação atingir a imaturidade, levando o homem a ser mais produtivo, mais ajustado à sua cultura, desenvolvendo suas potencialidades ou indo além delas para criar mais. Buscando um maior embasamento, a autora se valeu de estudos teóricos e experimentais de Piaget, Montessori, Okón, Poppovic, Oslon, Austin & Postethwaite, e outros, além de algumas pesquisas realizadas por autores ou instituições brasileiras. O estudo dirigiu-se, especificamente, a alunos da 4º série do 1º grau, para medir competência pedagógica e conhecer dados referentes à escolarização inicial. Os resultados obtidos confirmaram a hipótese fundamental de que quanto mais precocemente a criança for estimula da, maior será sua competência pedagógica posterior, o que se pressupõe ser decorrente da aceleração de seu desenvolvimento cognitivo. Entretanto, face às delimitações criadas e às limitações sofridas, a autora sugere a realização de pesquisas ulteriores sobre o tópico, a fim de que se possa, diante de dados experimentais cada vez mais consistentes e de maior amplitude, propor, de forma mais enfática, uma aplicação psicopedagógica adaptada à realidade social e tecnológica de nossa era.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O trabalho busca comparar dois conjuntos de informações para a projeção das variações do PIB brasileiro: através de modelos econométricos aplicados sobre a série univariada do PIB, e a aplicação dos mesmos modelos, mas contemplando adicionalmente o conjunto de informação com dados da estrutura a termo de taxa de juros de swap PRÉ-DI. O objetivo é verificar, assim como descrito na literatura internacional, se informações de variáveis financeiras tem a capacidade de incrementar o poder preditivo de projeções de variáveis macroeconômicas, na medida em que esses dados também embutem as expectativas dos agentes em relação ao desenvolvimento do cenário econômico. Adicionalmente, o mesmo procedimento aplicado para os dados brasileiros é aplicado sobre as informações dos Estados Unidos, buscando poder fornecer ao estudo uma base de comparação sobre os dados, tamanho da amostra e estágio de maturidade das respectivas economias. Como conclusão do resultado do trabalho está o fato de que foi possível obter um modelo no qual a inclusão do componente de mercado apresenta menores erros de projeção do que as projeções apenas univariadas, no entanto, os ganhos de projeção não demonstram grande vantagem comparativa a ponto de poder capturar o efeito de antecipação do mercado em relação ao indicador econômico como em alguns casos norte-americanos. Adicionalmente o estudo demonstra que para este trabalho e amostra de dados, mesmo diante de diferentes modelos econométricos de previsão, as projeções univariadas apresentaram resultados similares.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A análise sobre se a existência de comitês de investimentos que concedam poderes de ingerência aos cotistas é uma variável levada em consideração pelos potenciais investidores de fundos de investimento em participação (“FIPs”) utilizados como veículos de investimento em Private Equity (“FIPs PE”) no mercado brasileiro é o objeto do presente trabalho, cujo objetivo é verificar se há competição entre gestores de FIPs PE pela inclusão de tais comitês em seus regulamentos, com vistas a prospectar um maior número de cotistas. Por meio da realização de pesquisa empírica, na qual serão analisados os regulamentos de FIPs PE que foram registrados desde o ano de 2006 até o ano de 2011 perante a Comissão de Valores Mobiliários (“CVM”), com vistas a examinar se houve aumento no número de regulamentos que previssem comitês de investimento e no número de gestores que adotam comitês de investimento usualmente nos fundos que gerem, se pretende comprovar a hipótese de que os comitês de investimento são uma variável que interfere na decisão dos investidores sobre em qual FIP PE investirão seus recursos e, portanto, que os gestores de FIPs PE tendem a estabelecer este mecanismo nos regulamentos dos fundos que gerem. Os pressupostos teóricos que justificam a adoção de mecanismos de governança pelos FIPs PE, com base na literatura sobre a teoria da agência – enfatizando-se os temas da assimetria de informação, risco moral, seleção adversa e custos de agência - e, ainda, os mecanismos de governança mais usuais na indústria de FIPs PE são apresentados de forma a conferir ao tema o devido embasamento teórico. A relevância deste trabalho decorre da importância que a indústria de Private Equity possui na economia, por atuar em determinado estágio de um empreendimento onde o acesso ao financiamento é via de regra escasso. Além disso, o tema se revela atual, já que houve, apenas no ano de 2011, captações recordes de fundos de Private Equity no Brasil, que somaram um montante de US$ 8,1 bilhões.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

INTRODUCTION With the advent of Web 2.0, social networking websites like Facebook, MySpace and LinkedIn have become hugely popular. According to (Nilsen, 2009), social networking websites have global1 figures of almost 250 millions unique users among the top five2, with the time people spend on those networks increasing 63% between 2007 and 2008. Facebook alone saw a massive growth of 566% in number of minutes in the same period of time. Furthermore their appeal is clear, they enable users to easily form persistent networks of friends with whom they can interact and share content. Users then use those networks to keep in touch with their current friends and to reconnect with old friends. However, online social network services have rapidly evolved into highly complex systems which contain a large amount of personally salient information derived from large networks of friends. Since that information varies from simple links to music, photos and videos, users not only have to deal with the huge amount of data generated by them and their friends but also with the fact that it‟s composed of many different media forms. Users are presented with increasing challenges, especially as the number of friends on Facebook rises. An example of a problem is when a user performs a simple task like finding a specific friend in a group of 100 or more friends. In that case he would most likely have to go through several pages and make several clicks till he finds the one he is looking for. Another example is a user with more than 100 friends in which his friends make a status update or another action per day, resulting in 10 updates per hour to keep up. That is plausible, especially since the change in direction of Facebook to rival with Twitter, by encouraging users to update their status as they do on Twitter. As a result, to better present the web of information connected to a user the use of better visualizations is essential. The visualizations used nowadays on social networking sites haven‟t gone through major changes during their lifetimes. They have added more functionality and gave more tools to their users, but still the core of their visualization hasn‟t changed. The information is still presented in a flat way in lists/groups of text and images which can‟t show the extra connections pieces of information. Those extra connections can give new meaning and insights to the user, allowing him to more easily see if that content is important to him and the information related to it. However showing extra connections of information but still allowing the user to easily navigate through it and get the needed information with a quick glance is difficult. The use of color coding, clusters and shapes becomes then essential to attain that objective. But taking into consideration the advances in computer hardware in the last decade and the software platforms available today, there is the opportunity to take advantage of 3D. That opportunity comes in because we are at a phase were the hardware and the software available is ready for the use of 3D in the web. With the use of the extra dimension brought by 3D, visualizations can be constructed to show the content and its related information to the user at the same screen and in a clear way. Also it would allow a great deal of interactivity. Another opportunity to create better information‟s visualization presents itself in the form of the open APIs, specifically the ones made available by the social networking sites. Those APIs allow any developers to create their own applications or sites taking advantage of the huge amount of information there is on those networks. Specifically to this case, they open the door for the creation of new social network visualizations. Nevertheless, the third dimension is by itself not enough to create a better interface for a social networking website, there are some challenges to overcome. One of those challenges is to make the user understand what the system is doing during the interaction with the user. Even though that is important in 2D visualizations, it becomes essential in 3D due to the extra dimension. To overcome that challenge it‟s necessary the use of the principles of animations defined by the artists at Walt Disney Studios (Johnston, et al., 1995). By applying those principles in the development of the interface, the actions of the system in response to the user inputs became clear and understandable. Furthermore, a user study needs to be performed so the users‟ main goals and motivations, while navigating the social network, are revealed. Their goals and motivations are important in the construction of an interface that reflects the user expectations for the interface, but also helps in the development of appropriate metaphors. Those metaphors have an important role in the interface, because if correctly chosen they help the user understand the elements of the interface instead of making him memorize it. The last challenge is the use of 3D visualization on the web, since there have been several attempts to bring 3D into it, mainly with the various versions of VRML which were destined to failure due to the hardware limitations at the time. However, in the last couple of years there has been a movement to make the necessary tools to finally allow developers to use 3D in a useful way, using X3D or OpenGL but especially flash. This thesis argues that there is a need for a better social network visualization that shows all the dimensions of the information connected to the user and that allows him to move through it. But there are several characteristics the new visualization has to possess in order for it to present a real gain in usability to Facebook‟s users. The first quality is to have the friends at the core of its design, and the second to make use of the metaphor of circles of friends to separate users in groups taking into consideration the order of friendship. To achieve that several methods have to be used, from the use of 3D to get an extra dimension for presenting relevant information, to the use of direct manipulation to make the interface comprehensible, predictable and controllable. Moreover animation has to be use to make all the action on the screen perceptible to the user. Additionally, with the opportunity given by the 3D enabled hardware, the flash platform, through the use of the flash engine Papervision3D and the Facebook platform, all is in place to make the visualization possible. But even though it‟s all in place, there are challenges to overcome like making the system actions in 3D understandable to the user and creating correct metaphors that would allow the user to understand the information and options available to him. This thesis document is divided in six chapters, with Chapter 2 reviewing the literature relevant to the work described in this thesis. In Chapter 3 the design stage that resulted in the application presented in this thesis is described. In Chapter 4, the development stage, describing the architecture and the components that compose the application. In Chapter 5 the usability test process is explained and the results obtained through it are presented and analyzed. To finish, Chapter 6 presents the conclusions that were arrived in this thesis.