980 resultados para Data errors


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho investiga, no mercado acionário brasileiro, o efeito da contabilidade de hedge na qualidade das informações contábeis divulgadas, no disclosure dos instrumentos financeiros derivativos e na assimetria de informação. Para medir a qualidade da informação contábil, foram utilizadas as métricas de relevância da informação contábil e informatividade dos lucros contábeis. Para a execução deste trabalho, foi constituída uma amostra geral com empresas brasileiras, não financeiras, listadas na Bolsa de Valores de São Paulo, compreendendo as 150 empresas com maior valor de mercado em 01/01/2014. A partir da amostra geral, foram constituídas amostras para a aplicação dos modelos de value relevance, informativeness, disclosure e assimetria de informação. A amostra para relevância contou com 758 observações firmas-anos, para o período de 2008 a 2013. A amostra para informatividade contou com 701 observações firmas-anos, para o período de 2008 a 2013. A amostra para disclosure contou com 100 observações firmas-anos, para o período de 2011 a 2012. A amostra para assimetria de informação contou com 100 observações firmas-anos, para o período de 2011 a 2012. Para as análises dos dados, utilizou-se regressões com errospadrão robustos com abordagem POLS e Efeitos Fixos, aplicadas sobre dados em painel. Complementarmente, para as análises do efeito do hedge accounting sobre o disclosure e assimetria de informação, foi aplicado o método de Propensity Score Matching. As evidências encontradas para a influência da contabilidade de hedge na relevância da informação contábil apontaram uma relação positiva e significante na interação com o LL. Na análise da informatividade dos lucros contábeis, a pesquisa evidenciou uma relação negativa e estatisticamente significante do lucro quando interagido com a variável dummy de hedge accounting. Quanto às evidências encontradas para a influência do hedge accounting sobre o disclosure dos derivativos, verificou-se uma relação positiva e estatisticamente significante da dummy de hedge accounting com o indicador de evidenciação dos derivativos. Em relação às evidências para a assimetria de informação, embora os coeficientes se mostrassem no sentido esperado, os mesmos não foram estatisticamente significativos. Adicionalmente, incorporamse às análises econométricas uma análise descritiva, na amostra geral, da utilização do hedge accounting no Brasil, para o ano de 2013. Dentre as 150 empresas da amostra, 49 empresas utilizaram hedge accounting, onde 41 empresas adotam apenas 1 tipo de hedge. O hedge de fluxo de caixa é o tipo de hedge mais adotado pelas empresas, sendo utilizado por 42 companhias.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação foi desenvolvida com o objetivo de investigar os efeitos da instalação e das características do Conselho Fiscal e do Comitê de Auditoria sobre a qualidade das informações contábeis no Brasil. As características estudadas foram à independência e a qualificação dos membros. As proxies da qualidade da informação contábil foram relevância, tempestividade e conservadorismo condicional. A amostra utilizada foi composta por empresas brasileiras, listadas na Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBovespa), com liquidez anual superior a 0,001, no período de 2010 a 2013. Os dados foram coletados na base de dados Comdinheiro e nos Formulários de Referência das empresas, disponíveis no sítio eletrônico da Comissão de Valores Mobiliários (CVM) ou BM&FBovespa. Os modelos de qualidade da informação foram adaptados ao recorte metodológico e estimados pelo método dos mínimos quadrados ordinários (MQO), com erros-padrão robustos clusterizados por firma. Os resultados revelaram efeitos da instalação dos órgãos analisados sobre as proxies de qualidade da informação contábil. A instalação do Conselho Fiscal impactou positivamente a relevância do patrimônio líquido, enquanto a instalação do Comitê de Auditoria, a relevância do lucro. Esses resultados podem indicar diferenças no direcionamento da atenção desses órgãos: em proteger o patrimônio da entidade para os acionistas (Conselho Fiscal) ou em assegurar números mais confiáveis sobre o desempenho dos administradores (Comitê de Auditoria). Paralelamente, os resultados para a instalação do Conselho Fiscal de forma permanente inferiu força desse órgão como mecanismo de controle, ao invés da instalação somente a pedido dos acionistas. Já, a implementação do Conselho Fiscal Turbinado se mostrou ineficiente no controle da qualidade das informações contábeis. Na análise das características, a independência dos membros do Comitê de Auditoria impactou a relevância do lucro. Ao passo que a independência do Conselho Fiscal impactou a relevância do patrimônio líquido e o conservadorismo condicional (reconhecimento oportuno de perdas econômicas). Essas associações foram mais significantes quando os membros do Conselho Fiscal eram independentes dos acionistas controladores. Na análise da qualificação dos membros, foram encontradas evidências positivas na relação entre a relevância do patrimônio líquido e a maior proporção de membros do Conselho Fiscal com qualificação em Business (Contabilidade, Administração e Economia). O conservadorismo condicional foi maior na medida em que a qualificação dos membros do Conselho Fiscal convergia para a Contabilidade. Os resultados da qualificação dos membros do Comitê de Auditoria demonstraram relevância do lucro na presença de, ao menos, um Contador e na maior proporção de membros com qualificação tanto em Contabilidade como em Business; sendo mais significante conforme a qualificação dos membros do Comitê de Auditoria convergia para a Contabilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Modelos de escoamento multifásico são amplamente usados em diversas áreas de pesquisa ambiental, como leitos fluidizados, dispersão de gás em líquidos e vários outros processos que englobam mais de uma propriedade físico-química do meio. Dessa forma, um modelo multifásico foi desenvolvido e adaptado para o estudo do transporte de sedimentos de fundo devido à ação de ondas de gravidade. Neste trabalho, foi elaborado o acoplamento multifásico de um modelo euleriano não-linear de ondas do tipo Boussinesq, baseado na formulação numérica encontrada em Wei et al. (1995), com um modelo lagrangiano de partículas, fundamentado pelo princípio Newtoniano do movimento com o esquema de colisões do tipo esferas rígidas. O modelo de ondas foi testado quanto à sua fonte geradora, representada por uma função gaussiana, pá-pistão e pá-batedor, e quanto à sua interação com a profundidade, através da não-linearidade e de propriedades dispersivas. Nos testes realizados da fonte geradora, foi observado que a fonte gaussiana, conforme Wei et al. (1999), apresentou melhor consistência e estabilidade na geração das ondas, quando comparada à teoria linear para um kh   . A não-linearidade do modelo de ondas de 2ª ordem para a dispersão apresentou resultados satisfatórios quando confrontados com o experimento de ondas sobre um obstáculo trapezoidal, onde a deformação da onda sobre a estrutura submersa está em concordância com os dados experimentais encontrados na literatura. A partir daí, o modelo granular também foi testado em dois experimentos. O primeiro simula uma quebra de barragem em um tanque contendo água e o segundo, a quebra de barragem é simulada com um obstáculo rígido adicionado ao centro do tanque. Nesses experimentos, o algoritmo de colisão foi eficaz no tratamento da interação entre partícula-partícula e partícula-parede, permitindo a evidência de processos físicos que são complicados de serem simulados por modelos de malhas regulares. Para o acoplamento do modelo de ondas e de sedimentos, o algoritmo foi testado com base de dados da literatura quanto à morfologia do leito. Os resultados foram confrontados com dados analíticos e de modelos numéricos, e se mostraram satisfatórios com relação aos pontos de erosão, de sedimentação e na alteração da forma da barra arenosa

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The progressive aging of the population requires new kinds of social and medical intervention and the availability of different services provided to the elder population. New applications have been developed and some services are now provided at home, allowing the older people to stay home instead of having to stay in hospitals. But an adequate response to the needs of the users will imply a high percentage of use of personal data and information, including the building up and maintenance of user profiles, feeding the systems with the data and information needed for a proactive intervention in scheduling of events in which the user may be involved. Fundamental Rights may be at stake, so a legal analysis must also be considered.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Wireless medical systems are comprised of four stages, namely the medical device, the data transport, the data collection and the data evaluation stages. Whereas the performance of the first stage is highly regulated, the others are not. This paper concentrates on the data transport stage and argues that it is necessary to establish standardized tests to be used by medical device manufacturers to provide comparable results concerning the communication performance of the wireless networks used to transport medical data. Besides, it suggests test parameters and procedures to be used to produce comparable communication performance results.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The increasing availability of mobility data and the awareness of its importance and value have been motivating many researchers to the development of models and tools for analyzing movement data. This paper presents a brief survey of significant research works about modeling, processing and visualization of data about moving objects. We identified some key research fields that will provide better features for online analysis of movement data. As result of the literature review, we suggest a generic multi-layer architecture for the development of an online analysis processing software tool, which will be used for the definition of the future work of our team.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

More and more current software systems rely on non trivial coordination logic for combining autonomous services typically running on different platforms and often owned by different organizations. Often, however, coordination data is deeply entangled in the code and, therefore, difficult to isolate and analyse separately. COORDINSPECTOR is a software tool which combines slicing and program analysis techniques to isolate all coordination elements from the source code of an existing application. Such a reverse engineering process provides a clear view of the actually invoked services as well as of the orchestration patterns which bind them together. The tool analyses Common Intermediate Language (CIL) code, the native language of Microsoft .Net Framework. Therefore, the scope of application of COORDINSPECTOR is quite large: potentially any piece of code developed in any of the programming languages which compiles to the .Net Framework. The tool generates graphical representations of the coordination layer together and identifies the underlying business process orchestrations, rendering them as Orc specifications

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Background: Surgical repair of pectus excavatum (PE) has become more popular due to improvements in the minimally invasive Nuss procedure. The pre-surgical assessment of PE patients requires Computerized Tomography (CT), as the malformation characteristics vary from patient to patient. Objective: This work aims to characterize soft tissue thickness (STT) external to the ribs among PE patients. It also presents a comparative analysis between the anterior chest wall surface before and after surgical correction. Methods: Through surrounding tissue segmentation in CT data, STT values were calculated at different lines along the thoracic wall, with a reference point in the intersection of coronal and median planes. The comparative analysis between the two 3D anterior chest surfaces sets a surgical correction influence area (SCIA) and a volume of interest (VOI) based on image processing algorithms, 3D surface algorithms, and registration methods. Results: There are always variations between left and right side STTs (2.54±2.05 mm and 2.95±2.97 mm for female and male patients, respectively). STTs are dependent on age, sex, and body mass index of each patient. On female patients, breast tissue induces additional errors in bar manual

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Abstract: in Portugal, and in much of the legal systems of Europe, «legal persons» are likely to be criminally responsibilities also for cybercrimes. Like for example the following crimes: «false information»; «damage on other programs or computer data»; «computer-software sabotage»; «illegitimate access»; «unlawful interception» and «illegitimate reproduction of protected program». However, in Portugal, have many exceptions. Exceptions to the «question of criminal liability» of «legal persons». Some «legal persons» can not be blamed for cybercrime. The legislature did not leave! These «legal persons» are v.g. the following («public entities»): legal persons under public law, which include the public business entities; entities utilities, regardless of ownership; or other legal persons exercising public powers. In other words, and again as an example, a Portuguese public university or a private concessionaire of a public service in Portugal, can not commit (in Portugal) any one of cybercrime pointed. Fair? Unfair. All laws should provide that all legal persons can commit cybercrimes. PS: resumo do artigo em inglês.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work, we consider the numerical solution of a large eigenvalue problem resulting from a finite rank discretization of an integral operator. We are interested in computing a few eigenpairs, with an iterative method, so a matrix representation that allows for fast matrix-vector products is required. Hierarchical matrices are appropriate for this setting, and also provide cheap LU decompositions required in the spectral transformation technique. We illustrate the use of freely available software tools to address the problem, in particular SLEPc for the eigensolvers and HLib for the construction of H-matrices. The numerical tests are performed using an astrophysics application. Results show the benefits of the data-sparse representation compared to standard storage schemes, in terms of computational cost as well as memory requirements.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Image segmentation is an ubiquitous task in medical image analysis, which is required to estimate morphological or functional properties of given anatomical targets. While automatic processing is highly desirable, image segmentation remains to date a supervised process in daily clinical practice. Indeed, challenging data often requires user interaction to capture the required level of anatomical detail. To optimize the analysis of 3D images, the user should be able to efficiently interact with the result of any segmentation algorithm to correct any possible disagreement. Building on a previously developed real-time 3D segmentation algorithm, we propose in the present work an extension towards an interactive application where user information can be used online to steer the segmentation result. This enables a synergistic collaboration between the operator and the underlying segmentation algorithm, thus contributing to higher segmentation accuracy, while keeping total analysis time competitive. To this end, we formalize the user interaction paradigm using a geometrical approach, where the user input is mapped to a non-cartesian space while this information is used to drive the boundary towards the position provided by the user. Additionally, we propose a shape regularization term which improves the interaction with the segmented surface, thereby making the interactive segmentation process less cumbersome. The resulting algorithm offers competitive performance both in terms of segmentation accuracy, as well as in terms of total analysis time. This contributes to a more efficient use of the existing segmentation tools in daily clinical practice. Furthermore, it compares favorably to state-of-the-art interactive segmentation software based on a 3D livewire-based algorithm.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper, we present a method for estimating local thickness distribution in nite element models, applied to injection molded and cast engineering parts. This method features considerable improved performance compared to two previously proposed approaches, and has been validated against thickness measured by di erent human operators. We also demonstrate that the use of this method for assigning a distribution of local thickness in FEM crash simulations results in a much more accurate prediction of the real part performance, thus increasing the bene ts of computer simulations in engineering design by enabling zero-prototyping and thus reducing product development costs. The simulation results have been compared to experimental tests, evidencing the advantage of the proposed method. Thus, the proposed approach to consider local thickness distribution in FEM crash simulations has high potential on the product development process of complex and highly demanding injection molded and casted parts and is currently being used by Ford Motor Company.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In medical emergency situations, when a patient needs a blood transfusion, the universal blood type O− is administered. This procedure may lead to the depletion of stock reserves of O− blood. Nowadays, there is no commercial equipment capable of determining the patient's blood type in situ, in a fast and reliable process. Human blood typing is usually performed through the manual test, which involves a macroscopic observation and interpretation of the results by an analyst. This test, despite of having a fast response time, may lead to human errors, which sometimes can be fatal to the patient. This paper presents the development of an automatic mechatronic prototype for determining human blood typing (ABO and Rh systems) through image processing techniques. The prototype design takes into account the characteristics of reliability of analysis, portability, and response time allowing the system to be used in emergency situations. The developed prototype performs blood and reagents mixture acquires the resultant image and processes the data (based on image processing techniques) to determine the sample blood type. It was tested in a laboratory, using cataloged samples of blood types, provided by the Portuguese Institute of Blood and Transplantation. Hereafter, it is expected to test and validate the prototype in clinical environments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Websites are, nowadays, the face of institutions, but they are often neglected, especially when it comes to contents. In the present paper, we put forth an investigation work whose final goal is the development of a model for the measurement of data quality in institutional websites for health units. To that end, we have carried out a bibliographic review of the available approaches for the evaluation of website content quality, in order to identify the most recurrent dimensions and the attributes, and we are currently carrying out a Delphi Method process, presently in its second stage, with the purpose of reaching an adequate set of attributes for the measurement of content quality.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This article presents a research work, the goal of which was to achieve a model for the evaluation of data quality in institutional websites of health units in a broad and balanced way. We have carried out a literature review of the available approaches for the evaluation of website content quality, in order to identify the most recurrent dimensions and the attributes, and we have also carried out a Delphi method process with experts in order to reach an adequate set of attributes and their respective weights for the measurement of content quality. The results obtained revealed a high level of consensus among the experts who participated in the Delphi process. On the other hand, the different statistical analysis and techniques implemented are robust and attach confidence to our results and consequent model obtained.