136 resultados para IIS
Resumo:
In this work we introduce a new hierarchical surface decomposition method for multiscale analysis of surface meshes. In contrast to other multiresolution methods, our approach relies on spectral properties of the surface to build a binary hierarchical decomposition. Namely, we utilize the first nontrivial eigenfunction of the Laplace-Beltrami operator to recursively decompose the surface. For this reason we coin our surface decomposition the Fiedler tree. Using the Fiedler tree ensures a number of attractive properties, including: mesh-independent decomposition, well-formed and nearly equi-areal surface patches, and noise robustness. We show how the evenly distributed patches can be exploited for generating multiresolution high quality uniform meshes. Additionally, our decomposition permits a natural means for carrying out wavelet methods, resulting in an intuitive method for producing feature-sensitive meshes at multiple scales. Published by Elsevier Ltd.
Resumo:
In this paper a state of the art of a system of automated deduction called SAD is described . An architecture of SAD corresponds well to a modern vision of the Evidence Algorithm programme, initiated by Academician V.Glushkov.
Resumo:
Este estudo avalia a influência do desenvolvimento tecnológico sobre o social, a partir das atividades produtivas desenvolvidas na unidade agroindustrial Recanto lI, no município de Catolé do Rocha, com o apoio da Incubadora Tecnológica de Campina Grande - ITCG, e o Programa de Estudos e Ações no Semi-Árido Paraibano da Universidade Federal de Campina Grande - PEASAlUFCG. Os problemas sociais no semi-árido surgiram por condições ambientais adversas e se intensificaram pela falta de políticas públicas adequadas à educação e ao desenvolvimento da região. O problema é expresso pela seguinte indagação: Qual a influência entre o desenvolvimento tecnológico e o desenvolvimento social gerados a partir da atividade produtiva da Incubadora de Campina Grande, em Campina Grande, Paraíba? A relevância deste trabalho vem da pretensão em colaborar para o estudo da relação entre desenvolvimento tecnológico e social, numa tentativa de tornar inteligível a necessidade de educação e inovação tecnológica para o desenvolvimento social, principalmente em países não desenvolvidos. Vem também da utilidade para a formulação de políticas públicas e estratégias de desenvolvimento tecnológico, identificando ações e medidas de desempenho, voltadas ao diagnóstico da contribuição das incubadoras tecnológicas para o bem-estar da sociedade. O referencial teórico foi composto pela análise da função das racionalidades dos diversos agentes sociais e de sua contribuição para as interações sociais, além da análise das realidades culturais da sociedade empresariada, do Estado e das incubadoras tecnológicas. A metodologia se utilizou da pesquisa descritiva e explicativa, de campo, documental, bibliográfica e estudo de caso. O universo foram as pessoas que compõem a ITCG e a amostra foram o diretor da Incubadora, o cientista da UFCG e o líder comunitário de Recanto lI. Os sujeitos da pesquisa confundem-se com a amostra. A coleta de dados se deu por meio da literatura sobre a temática e de inserções no campo de estudo. O tratamento de dados se utilizou da análise qualitativa do fenômeno. As principais limitações do método consistiram na coleta, no tratamento dos dados, e na utilização do estudo de caso, com possibilidade de compreensão tendenciosa do fenômeno estudado. O referencial prático apresenta o resultados da pesquisa, avaliando-os por meio da comparação com o referencial teórico estudado. Tem-se como resultados que a ITCG agiu articulando os grupos e traduzindo as realidades culturais de cada agente em prol do desenvolvimento de comunidades agroindustriais em situação de risco social, devido à problemática da seca. A ITCG atuou como alfabetizadora social ensinando aos agentes sociais os códigos culturais dos demais grupos. As desigualdades que existiam entre o cientista e o sertanejo, aprofundadas pelo vexatório histórico de escravidão do homem do campo no nordeste brasileiro, foram minimizadas pela educação dada pelo próprio cientista. A Universidade contribuiu para a redução do analfabetismo ambiental, onde o meio ambiente era tido como o principal rival do homem do sertão. O Estado, quando atua em parceria com os demais agentes sociais consegue, manter-se como o principal instrumento dos cidadãos para controlar a globalização em função de seus valores e interesses. Na ITCG o ambiente de incubação é educacional, onde os novos empreendedores são postos em contato com a realidade cultural do empresariado, do Estado e de outras comunidades da sociedade, seguindo modelos meramente educacionais. Como conclusão tem-se que a trajetória dos cidadãos de Recanto II - de escravos a exportadores - foi baseada em dois grandes tesouros, a família e areligião. O mérito da ITCG foi compreender, respeitar e preservar a realidade cultural de Recanto 11 e incentivar a interação social com outras realidades culturais capazes de gerar desenvolvimento naquela região. A saúde, o desenvolvimento infantil, a segurança, a habitação foram conquistas de Recanto 11. Como sugestão tem-se que as políticas públicas deveriam reproduzir este ambiente de desenvolvimento para todos os cidadãos brasileiros em situação de risco social, utilizando-se da família como base para interações sociais fluidas e harmônicas entre os diversos agentes sociais.
Resumo:
Esta tese é constituída por três ensaios. O primeiro ensaio analisa a informação pública disponível sobre o risco das carteiras de crédito dos bancos brasileiros, sendo dividido em dois capítulos. O primeiro analisa a limitação da informação pública disponibilizada pelos bancos e pelo Banco Central, quando comparada a informação gerencial disponível internamente pelos bancos. Concluiu-se que existe espaço para o aumento da transparência na divulgação das informações, fato que vem ocorrendo gradativamente no Brasil através de novas normas relacionadas ao Pilar 3 de Basileia II e à divulgação de informações mais detalhas pelo Bacen, como, por exemplo, aquelas do “Top50” . A segunda parte do primeiro ensaio mostra a discrepância entre o índice de inadimplência contábil (NPL) e a probabilidade de inadimplência (PD) e também discute a relação entre provisão e perda esperada. Através da utilização de matrizes de migração e de uma simulação baseada na sobreposição de safras de carteira de crédito de grandes bancos, concluiu-se que o índice de inadimplência subestima a PD e que a provisão constituída pelos bancos é menor que a perda esperada do SFN. O segundo ensaio relaciona a gestão de risco à discriminação de preço. Foi desenvolvido um modelo que consiste em um duopólio de Cournot em um mercado de crédito de varejo, em que os bancos podem realizar discriminação de terceiro grau. Neste modelo, os potenciais tomadores de crédito podem ser de dois tipos, de baixo ou de alto risco, sendo que tomadores de baixo risco possuem demanda mais elástica. Segundo o modelo, se o custo para observar o tipo do cliente for alto, a estratégia dos bancos será não discriminar (pooling equilibrium). Mas, se este custo for suficientemente baixo, será ótimo para os bancos cobrarem taxas diferentes para cada grupo. É argumentado que o Acordo de Basileia II funcionou como um choque exógeno que deslocou o equilíbrio para uma situação com maior discriminação. O terceiro ensaio é divido em dois capítulos. O primeiro discute a aplicação dos conceitos de probabilidade subjetiva e incerteza Knigthiana a modelos de VaR e a importância da avaliação do “risco de modelo”, que compreende os riscos de estimação, especificação e identificação. O ensaio propõe que a metodologia dos “quatro elementos” de risco operacional (dados internos, externos, ambiente de negócios e cenários) seja estendida à mensuração de outros riscos (risco de mercado e risco de crédito). A segunda parte deste último ensaio trata da aplicação do elemento análise de cenários para a mensuração da volatilidade condicional nas datas de divulgação econômica relevante, especificamente nos dias de reuniões do Copom.
Resumo:
Generalized hyper competitiveness in the world markets has determined the need to offer better products to potential and actual clients in order to mark an advantagefrom other competitors. To ensure the production of an adequate product, enterprises need to work on the efficiency and efficacy of their business processes (BPs) by means of the construction of Interactive Information Systems (IISs, including Interactive Multimedia Documents) so that they are processed more fluidly and correctly.The construction of the correct IIS is a major task that can only be successful if the needs from every intervenient are taken into account. Their requirements must bedefined with precision, extensively analyzed and consequently the system must be accurately designed in order to minimize implementation problems so that the IIS isproduced on schedule and with the fewer mistakes as possible. The main contribution of this thesis is the proposal of Goals, a software (engineering) construction process which aims at defining the tasks to be carried out in order to develop software. This process defines the stakeholders, the artifacts, and the techniques that should be applied to achieve correctness of the IIS. Complementarily, this process suggests two methodologies to be applied in the initial phases of the lifecycle of the Software Engineering process: Process Use Cases for the phase of requirements, and; MultiGoals for the phases of analysis and design. Process Use Cases is a UML-based (Unified Modeling Language), goal-driven and use case oriented methodology for the definition of functional requirements. It uses an information oriented strategy in order to identify BPs while constructing the enterprise’s information structure, and finalizes with the identification of use cases within the design of these BPs. This approach provides a useful tool for both activities of Business Process Management and Software Engineering. MultiGoals is a UML-based, use case-driven and architectural centric methodology for the analysis and design of IISs with support for Multimedia. It proposes the analysis of user tasks as the basis of the design of the: (i) user interface; (ii) the system behaviour that is modeled by means of patterns which can combine Multimedia and standard information, and; (iii) the database and media contents. This thesis makes the theoretic presentation of these approaches accompanied with examples from a real project which provide the necessary support for the understanding of the used techniques.
Resumo:
This work aims to study the problem of the formal job in the Brazilian Northeast region and its effect in the social inclusion, taking for base the analysis of variables defined in the Atlas of Social Exclusion, which is based on the 2000 Brazilian Census, choosing the county as unit of analysis. As methodological options, an exploratory data analysis was performed, followed by multivariate statistical techniques, such as weighted multiple regression analysis, cluster analysis and exploratory analysis of spatial data. The results pointed out to low rates of formal job for the active age population as well as low indexes of social inclusion in the Northeast region of Brazil. A strong association of the formal job with the indicators of social inclusion under investigation, was evidenced (schooling, inequality, poverty, youth and income form government transfers), as well as a strong association of the formal job with the new index of social inclusion (IIS), modified from the IES. At the Federative Units, in which better levels of formal job had been found, good indexes of social inclusion are also observed. Highlights for the state of the Rio Grande do Norte, with the best conditions of life, and for the states of the Maranhão and Piauí, with the worst conditions. The situation of the Northeast region, facing the indicators under study, is very precarious, claiming for the necessity of emphasizing programs and governmental actions, specially directed to the raise of formal job levels of the region, reflecting, thus, in improvements on the income inequality, as well as in the social inclusion of the population of Northeastern natives.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The broad goals of verifiable visualization rely on correct algorithmic implementations. We extend a framework for verification of isosurfacing implementations to check topological properties. Specifically, we use stratified Morse theory and digital topology to design algorithms which verify topological invariants. Our extended framework reveals unexpected behavior and coding mistakes in popular publicly available isosurface codes.
Resumo:
Creating high-quality quad meshes from triangulated surfaces is a highly nontrivial task that necessitates consideration of various application specific metrics of quality. In our work, we follow the premise that automatic reconstruction techniques may not generate outputs meeting all the subjective quality expectations of the user. Instead, we put the user at the center of the process by providing a flexible, interactive approach to quadrangulation design. By combining scalar field topology and combinatorial connectivity techniques, we present a new framework, following a coarse to fine design philosophy, which allows for explicit control of the subjective quality criteria on the output quad mesh, at interactive rates. Our quadrangulation framework uses the new notion of Reeb atlas editing, to define with a small amount of interactions a coarse quadrangulation of the model, capturing the main features of the shape, with user prescribed extraordinary vertices and alignment. Fine grain tuning is easily achieved with the notion of connectivity texturing, which allows for additional extraordinary vertices specification and explicit feature alignment, to capture the high-frequency geometries. Experiments demonstrate the interactivity and flexibility of our approach, as well as its ability to generate quad meshes of arbitrary resolution with high-quality statistics, while meeting the user's own subjective requirements.
Resumo:
Consider the NP-hard problem of, given a simple graph G, to find a series-parallel subgraph of G with the maximum number of edges. The algorithm that, given a connected graph G, outputs a spanning tree of G, is a 1/2-approximation. Indeed, if n is the number of vertices in G, any spanning tree in G has n-1 edges and any series-parallel graph on n vertices has at most 2n-3 edges. We present a 7/12 -approximation for this problem and results showing the limits of our approach.
Resumo:
Robust analysis of vector fields has been established as an important tool for deriving insights from the complex systems these fields model. Traditional analysis and visualization techniques rely primarily on computing streamlines through numerical integration. The inherent numerical errors of such approaches are usually ignored, leading to inconsistencies that cause unreliable visualizations and can ultimately prevent in-depth analysis. We propose a new representation for vector fields on surfaces that replaces numerical integration through triangles with maps from the triangle boundaries to themselves. This representation, called edge maps, permits a concise description of flow behaviors and is equivalent to computing all possible streamlines at a user defined error threshold. Independent of this error streamlines computed using edge maps are guaranteed to be consistent up to floating point precision, enabling the stable extraction of features such as the topological skeleton. Furthermore, our representation explicitly stores spatial and temporal errors which we use to produce more informative visualizations. This work describes the construction of edge maps, the error quantification, and a refinement procedure to adhere to a user defined error bound. Finally, we introduce new visualizations using the additional information provided by edge maps to indicate the uncertainty involved in computing streamlines and topological structures.
Resumo:
Given a large image set, in which very few images have labels, how to guess labels for the remaining majority? How to spot images that need brand new labels different from the predefined ones? How to summarize these data to route the user’s attention to what really matters? Here we answer all these questions. Specifically, we propose QuMinS, a fast, scalable solution to two problems: (i) Low-labor labeling (LLL) – given an image set, very few images have labels, find the most appropriate labels for the rest; and (ii) Mining and attention routing – in the same setting, find clusters, the top-'N IND.O' outlier images, and the 'N IND.R' images that best represent the data. Experiments on satellite images spanning up to 2.25 GB show that, contrasting to the state-of-the-art labeling techniques, QuMinS scales linearly on the data size, being up to 40 times faster than top competitors (GCap), still achieving better or equal accuracy, it spots images that potentially require unpredicted labels, and it works even with tiny initial label sets, i.e., nearly five examples. We also report a case study of our method’s practical usage to show that QuMinS is a viable tool for automatic coffee crop detection from remote sensing images.
Resumo:
Über cDNA-Banken und RT-PCR wurden erstmals 15 Intermediärfilament-Proteine (IF-Proteine) des Flussneunauges Lampetra fluviatilis (Agnatha, kieferlose Wirbeltiere) kloniert und sequenziert: drei Typ I-Keratine, vier Typ II-Keratine, fünf keratinartige IF-Proteine (drei Kγ, zwei Kα), die Typ III-Proteine Vimentin und Desmin sowie ein Typ IV-Neurofilament-Protein (NF).Die IF-Proteine wurden aus verschiedenen Organen isoliert und durch zweidimensionale Polyacrylamid-Gelelektrophorese (2D-PAGE) aufgetrennt. Biochemische sowie massenspektrometrische Analysen anhand der 2D-PAGE ermöglichten in Kombination mit den Sequenzdaten die Identifizierung von Vimentin, Desmin sowie aller sequenzierten Keratine bis auf zwei der fünf Kα/Kγ-Proteine. Die meisten Keratine ließen sich darüber hinaus in die Kategorien âEâ (von âepidermalâ) und âSâ (von âsimple epithelialâ) einteilen.Von den sequenzierten Keratinen ist das IIS-Keratin K8 wahrscheinlich ortholog zu den bekannten K8-Sequenzen höherer Vertebraten. Die Bezeichnung K18 für das einzige IS-Keratin des Neunauges in Anlehnung an das IS-Keratin K18 des Menschen basiert auf der stets beobachteten Koexpression mit K8 in einfachen Epithelien.Die Sequenz des Neunaugen-Vimentins zeigt große Übereinstimmungen mit den bekannten Desminsequenzen der Vertebraten. Die keratinartigen Proteine Kα und Kγ sind bis jetzt nur von Agnathen (Neunaugen und Schleimaale) bekannt.In molekularen Stammbäumen können K8, K18, Vimentin, Desmin und das NF_L des Neunauges gut als Außengruppe definiert werden.
Resumo:
Im Rahmen meiner Arbeit wurden erstmals die Intermediärfilament-Proteine (IF-Proteine) des Sibirischen Störs Acipenser baeri (Strahlenflosser, Knorpelganoid) kloniert und sequenziert. Aus einer cDNA-Bank konnten die Sequenzen von 13 IF-Proteine gewonnen werden. Von insgesamt zehn Keratinen codieren sieben für Typ I-Keratine und drei für Typ II. Zusätzlich konnten noch Desmin, Vimentin und ein Lamin identifiziert werden. Je einem Typ I- (K13) und einem Typ-II-Keratin (K2) fehlen wenige Aminosäuren in der Head-Domäne.Cytoskelett-Präparationen aus Epidermis, Mitteldarm, Magen und Kieme wurden mittels 2D-PAGE aufgetrennt. Durch Einsatz des CKBB-Test und Immunoblots wurden die verschiedenen Typ I und II-Keratine sowie Desmin und Vimentin identifiziert. Die gewebsspezifische Expression der Keratine ermöglichte zumeist ihre Einteilung in 'E' (epidermal) und 'S' ('simple epithelial').Die MALDI-MS-Analyse einer 2D-PAGE-Koelektrophorese von Seitenflosse und Mitteldarm zeigte, daß die 34 vorhandenen Proteinflecke auf nur 13 verschiedene IF-Proteine zurückgehen. Neun dieser Flecke konnten Sequenzen zugewiesen werden. Zusammen mit den verbleibenden vier Proteinflecken ergeben sich für den Stör nunmehr insgesamt 17 bekannte IF-Proteine. Von drei biochemisch identifizierten IS-Keratinen kommt eines nur im Mitteldarm vor und nur einem konnte eine Sequenz zugeordnet werden (K18). Dem einzigen Typ IIS-Keratin konnte keine Sequenz zugeordnet werden, wahrscheinlich handelt es sich um dabei um das K8-Orthologe. Jedem der fünf Typ IE-Proteine konnte eine Sequenz zugeordnet werden (K10 bis K14), ebenso wie dem einzigen identifizierten Typ IIE-Keratin (K2). Von den Typ III-Proteinen wurden Desmin und Vimentin ihren Proteinflecken zugeordnet. Die nicht zugeordnete Sequenz aba-k1 codiert möglicherweise für ein IIE-Keratin, während aba-k15 vermutlich die Sequenz für ein IE-Keratin enthält. Bei den Proteinflecken, denen eine Sequenz zugeordnet werden konnten, kann für Aba-K2 die Zugehörigkeit zum IIE-Typ angenommen werden, während es sich bei Aba-K10 wahrscheinlich um ein IE-Keratin handelt.Durch Datenbankvergleiche und molekulare Stammbäume konnte die Zugehörigkeit der identifizierten Lamin-Sequenz zum B3-Subtyp der Vertebraten gezeigt werden.Die Daten der Biochemie und indirekten Immunfluoreszenzmikroskopie zeigen, daß Keratine in Epithelien und Vimentin in mesenchymalen Geweben vorkommen. Es existieren starke Hinweise, daß im letzten Gewebetyp Keratine auch koexprimiert werden. Desmin kommt in großen Mengen im Magen und im Mitteldarm vor und stellt dort das prominenteste Protein.Mit den gewonnenen Sequenzdaten wurden molekulare Stammbäume und Sequenzidentitäten berechnet. Die daraus resultierenden Konsequenzen für die Verwandtschaftsverhältnisse der verschiedenen IF-Proteine sowie der Wirbeltiere werden diskutiert.