1000 resultados para erro


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como principal objetivo analisar a relação causal entre um conjunto de variáveis de política monetária e o mercado acionário brasileiro, representado pelo Ibovespa, e para tal utilizará o procedimento de Bernanke (1986). Buscou-se analisar o efeito dos choques inesperados nas variáveis de política monetária, além de analisar o poder explanatório de cada uma das variáveis do modelo sobre o Ibovespa. Os resultados obtidos deixam claro que as taxas de juros de curto e longo prazo e a taxa de câmbio impactam contemporaneamente o Ibovespa. Contudo, a maior sensibilidade do índice está na taxa de câmbio, mostrando a importância exercida pelo câmbio no mercado acionário brasileiro. Uma depreciação inesperada no câmbio da ordem de 10% impacta negativamente o Ibovespa em 11,6%. Como na função impulso resposta, o câmbio é a variável que tem o maior poder explanatório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma das práticas mais difundidas para a avaliação de ativos operacionais é o fluxo de caixa descontado, ou FCD. Contudo, uma das versões mais comumente aceitas de FCD, o custo médio ponderado de capital, ou WACC no original inglês, tornou-se obsoleta. Este artigo discute uma metodologia alternativa ao WACC, chamada de VPA (valor presente ajustado), ou APV (adjusted present value), em inglês. O artigo mostra que essa metodologia apresenta vantagens superiores quando comparada ao WACC, especificamente pelo fato de oferecer mais informações de relevância administrativa, a um índice menor de erro, ajudando os executivos a analisar não só quanto vale um ativo, mas também a origem de seu valor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho aborda o problema do desenho de códigos espácio-temporais para sistemas de comunicação multiple-input multiple-output (MIMO) sem fios. Considera-se o contexto realista e desafiante da recepção não-coerente (a realização do canal é desconhecida no receptor). O detector conhecido como generalized likelihood ratio test (GLRT)é implementado no receptor e, ao contrário da maioria das abordagens actuais, permite-se uma estrutura de correlação arbitrária para o ruído gaussiano de observação. Apresenta-se uma análise teórica para a probabilidade de erro do detector, em ambos os regimes assimptóticos de relação sinal-ruído (SNR) alta e baixa. Essa análise conduz a um critério de optimalidade para desenho de códigos e permite uma re-interpretação geométrica do problema abordado como um problema de empacotamento óptimo num producto Cartesiano de espaço projectivos. A construção dos códigos implica a resolução de um problema de optimização não-linear, não-diferenciável e de dimensão elevada, o qual foi abordado aqui em duas fases. A primeira fase explora uma relaxação convexa do problema original para obter uma estimativa inicial. A segunda fase, refina essa estimativa através de um algoritmo iterativo de descida do gradiente ao longo de geodésicas, explorando-se assim a geometria Riemanniana imposta pelas restricões de potência sobre os códigos espáciotemporais. Mostra-se que o desempenho dos novos códigos obtidos por este método excede o das soluções previamente conhecidas. De facto, para algumas configurações particulares, estas novas constelações atingem o limiar de Rankin e são por isso garantidamente óptimas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudos que analisam os impactos da política fiscal sobre o crescimento econômico de países, estados e municípios são recorrentes. As questões de pesquisa mais comumente consideradas levam a investigar se os gastos públicos podem elevar o crescimento econômico com o aumento da produtividade do setor privado. Neste sentido, o objetivo deste estudo é investigar a relação existente entre o crescimento econômico, considerando o Produto Interno Bruto (PIB), e as variáveis que compõem os gastos públicos das maiores cidades da região Sul do Brasil. Trata-se de uma pesquisa descritiva com abordagem quantitativa e de corte seccional. Para tal, o artigo apresenta um modelo matemático não linear multivariável que é avaliado empiricamente por meio de uma aplicação para os gastos públicos das maiores cidades da região Sul do Brasil. A partir da utilização do modelo, estimou-se o PIB para as cidades e comparou-se com os valores reais do PIB. Os resultados mostram um erro de estimação de 22,45% para uma confiabilidade de 85,16%. Conclui-se que os gastos dos governos locais têm um importante papel no crescimento econômico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumo O objetivo deste artigo é demonstrar a associação existente entre o capital social e as políticas públicas municipais, por meio de um estudo comparado, entre o volume de capital social existente no Conselho de Desenvolvimento do Vale do Rio dos Sinos (Corede) e a cidade de Novo Hamburgo, pertencente ao Corede. Nossa hipótese de trabalho sugere que o capital social, próprio da cultura política local existente na região e na cidade em tela, constitui-se num aliado às instituições políticas, pois ele está associado à avaliação positiva das políticas públicas municipais. A metodologia utiliza os resultados de duas pesquisas quantitativas, surveys domiciliares aplicadas no Corede, em 2007, e em Novo Hamburgo, em 2012, com amostras probabilísticas, totalizando 1.200 questionários, erro amostral de 4% e confiança de 95%, bem como pesquisa documental aos sites das referidas prefeituras, IBGE, TCE e FEE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo problematiza o elenco de questões e de respostas que costumamos formular a respeito dos usos de drogas e propõe outro modo de pensar essas práticas. Sugere-se que já não é mais suficiente indagar "por que as pessoas usam drogas?" e "qual o significado do uso de drogas?", nem se contentar com as respostas que são apresentadas quando essas questões são colocadas, pois elas costumam concluir pelo "erro", pela "falta" ou pela "fraqueza". Propõem-se, então, outras questões: "o que ocorre em práticas como essas?", "que experiência usuários e substâncias realizam?". Conseqüentemente, propõem-se também outras respostas. Estas novas respostas apontam para a existência de eventos - as 'ondas' das drogas - que envolvem agenciamentos paradoxais de auto-abandono. Propõe-se que o evento 'onda' não resulta de fantasias subjetivas dos usuários, nem de determinações objetivas da substância, mas exige modalidades de (in)ação como aquelas presentes no paradoxo da paixão e nos jogos profundos. Sustenta-se que o evento 'onda' envolve modos singulares de engajamento no mundo, nos quais as substâncias são mediadores indispensáveis. Por fim, sugere-se que, em vez de se indagar quem controla a 'onda', cabe perguntar se ela ocorre ou não, ou, baseado em Gabriel Tarde, se há ou não alter-ação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi analisada a fidedignidade dos dados estatísticos hospitalares recebidos pela Coordenadoria de Assistência Hospitalar da Secretaria de Estado da Saúde de São Paulo. Mediante uma amostra sistemática por conglomerado em etapa única, com base nas saídas de pacientes relacionados nos Boletins 101 - "Movimento de Pacientes Saídos" - foram visitados 31 hospitais de assistência hospitalar geral e examinados 7.021 prontuários de pacientes saídos durante um mês. A perda de prontuários foi em média de 19,64%. Houve concordância de dados quanto à idade, procedência, data de admissão e tipo de saída, respectivamente de 97,08%, 96,93%, 98,47% e 99,82%. Relativamente à data de saída, a discordância média foi de 7,43%, com valores de até 65,64% e 82,51% de erro, sendo analisados alguns fatores responsáveis por esses resultados. Quanto aos diagnósticos, verificou-se que há um aumento da relação de diagnósticos por paciente, na medida em que se examinam o Boletim 101 e os prontuários, e que alguns diagnósticos tais como anemias, desnutrição e verminoses apareceram inúmeras vezes nos prontuários sem a devida transcrição no Boletim 101. Em 17,51% dos casos, os diagnósticos registrados nos Boletins não concordaram com os diagnósticos dos prontuários, havendo 458 saídas (6,52%) onde o único diagnóstico registrado era um estado mórbido mal definido, tendo sido possível reduzir, mediante análise dos prontuários, esse número para 174 casos (2,48%).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma coorte de cerca de 1.800 crianças urbanas nascidas em 1982 em Pelotas, RS, está sendo estudada prospectivamente. Através de visitas domiciliares, quando as crianças estavam com 9 a 15 meses de idade, perguntou-se às mães ou responsáveis qual havia sido o peso ao nascer destas crianças. Esta informação foi comparada com o dado verdadeiro, obtido por ocasião do nascimento. Cerca de 80% das respostas apresentaram um erro menor do que 100 g, e 90% um erro inferior a 250 g. Não se observou qualquer tendência importante no sentido de aumentar ou diminuir os pesos verdadeiros. As respostas foram menos precisas em famílias de baixa renda, mas as diferenças não foram marcantes. O mesmo não ocorreu em relação à escolaridade materna, onde as respostas de mães que nunca haviam comparecido à escola foram bem menos exatas. Sugere-se que a investigação retrospectiva do peso ao nascer de crianças menores de um ano em populações comparáveis à presente se justifica no caso de estudos epidemiológicos, mas deve ser usada cautelosamente no contexto clínico em que se deseje avaliar cada criança individualmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresentam-se sucintamente dois métodos de amostragem que visam a seleção de uma amostra de crianças de fixada faixa de idade, residentes em determinada área geográfica de interesse, para estimação de cobertura vacinal: o método de R.H. Henderson e T. Sundaresan, o método do Departamento de Epidemiologia e de Métodos Quantitativos em Saúde da Escola Nacional de Saúde Pública. Um terceiro método de amostragem é proposto. O primeiro método apresentado (Henderson e Sundaresan) é empregado no Programa Ampliado de Imunização e nesse programa é considerado eficiente, simples e não dispendioso. O segundo e o novo método, que apresentam modificações do primeiro, constituindo alternativas deste, visam diminuir o erro quadrático médio nas estimativas, conquanto sejam menos simples e mais dispendiosos que aquele. Visto que, na estimação da cobertura vacinal, o estimador empregado pressupõe amostra autoponderada, a preocupação maior do método aqui proposto foi a de proporcionar uma amostragem segundo a qual se tenha equiprobabilidade de seleção para qualquer criança do grupo etário estudado residente na área de interesse, independentemente de qualquer condição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Descreve-se o planejamento de amostragem empregada no levantamento realizado para a avaliação de cobertura vacinal, no município de Araraquara, Estado de São Paulo (Brasil), 1983. Houve uma estratificação das crianças de 12 a 23 meses, resultando o estrato de crianças residentes em domicílios particulares e aquele composto pelas crianças de asilos e orfanatos. No primeiro estrato foi aplicado o método de R.H. Henderson e T. Sundaresan proposto pela Organização Mundial de Saúde (OMS) no Programa Ampliado de Imunização - PAI. O método prevê sorteio de 30 áreas parciais com probabilidade proporcional às suas populações e em cada área selecionada, há o sorteio de um "ponto de partida" que serve de referência para a tomada de 7 crianças, seguindo normas pré-fixadas de percurso. Na amostra do estrato 1 figuraram áreas da zona urbana e rural. Na aplicação do método à zona urbana, foi introduzida uma operação intermediária que consistiu no sorteio de um quarteirão, com probabilidade proporcional à sua população estimada. Do segundo estrato seria selecionada uma amostra com fração de amostragem igual à adotada no primeiro. Propõe-se a estimativa-razão como estimador da taxa de vacinação e apresenta-se a fórmula que estima o erro padrão deste estimador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O procedimento de Zippin é uma das técnicas mais precisas para estimar populações de animais, além de fornecer estimativas do erro padrão. Entretanto, a solução das equações de máxima verossimilhança não é algebricamente explícita. Sugere-se um procedimento iterativo utilizando a técnica de Newton Raphson para encontrar as soluções desejadas. Comparações com o procedimento clássico mostram sensíveis diferenças nas estimativas do erro padrão e diferenças menores nos demais parâmetros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de estampagem metálica é dos processos mais utilizados na indústria. Como resultado, qualquer pequeno avanço tecnológico, representa uma enorme melhoria no processo. O processo de estampagem metálica é realizado num curto período de tempo, com forças muito elevadas que promovem deformações elasto-plásticas, endurecimento do material e geração de calor por deformação plástica e também por atrito. Como resultado, muitos problemas podem ocorrer, tais como micro-fissuras, macro-fissuras, engelhamento, defeitos de forma estricções localizadas, fracturas, etc. Quando uma destas falhas ocorre, é importante fazer um diagnóstico das causas do problema. O método de elementos finitos, pode ajudar a fazer uma previsão destes problemas. Os resultados obtidos por este método, são utilizados para se modificarem algumas variáveis do processo, tais como: força do encostador, geometria de punções e matrizes. Neste trabalho foi efectuado um estudo da evolução de uma ferramenta progressiva, recorrendo a um software de elementos finitos (LS-DYNA). O objectivo do estudo da ferramenta progressiva, é o de fazer uma comparação dos resultados obtidos pelo LS-DYNA, com o componente obtido na fase de produção. A ferramenta em estudo passou por três grandes evoluções, tendo sido essencialmente alteradas as geometrias de punções e matrizes. Foi feita uma comparação das espessuras obtidas no processo real, com espessuras obtidas na simulação. Os resultados obtidos na simulação são muito semelhantes ao processo real, com uma margem de erro máximo de 4,08%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho simulou-se o comportamento térmico de sistemas solares do tipo pré-fabricado (factory made systems, norma EN 12976-2:2006), utilizando os parâmetros obtidos nos relatórios necessários à sua certificação, com o objectivo de conseguir introduzir estes sistemas na base de dados do programa SolTerm. Estes sistemas podem ser ensaiados segundo dois métodos de ensaio distintos que se encontram descritos nas normas ISO 9459-2:1995 (ensaio CSTG) e na norma ISO 9459-5:2007 (ensaio DST), contudo, devido ao facto do método DST estar baseado num software em código fechado, não é possível fazer a simulação no SolTerm, fazendo com que apenas se possa introduzir sistemas cujo ensaio tenha sido realizado segundo a norma ISO 9459-2 (ensaio CSTG). Este trabalho incidiu neste ponto, tendo sido elaborado um método de cálculo que permite inserir qualquer sistema no SolTerm, independentemente do ensaio que o caracterizou. Para isso foi necessário utilizar o modelo de cálculo do DST (programa em código fechado) simulando a metodologia de ensaio do CSTG, para que se consiga fazer a aproximação entre ambos. Após determinados os coeficientes, é feita uma verificação aos dois cálculoa a fim de corroborar os resultados anteriormente determinados. Desta forma, foi possível criar um algoritmo de cálculo que permite qualquer sistema térmico do tipo pré-fabricado, ser introduzido na base de dados do SolTerm, com um erro associado inferior a 3%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente tem-se observado um aumento do volume de sinais de fala em diversas aplicações, que reforçam a necessidade de um processamento automático dos ficheiros. No campo do processamento automático destacam-se as aplicações de “diarização de orador”, que permitem catalogar os ficheiros de fala com a identidade de oradores e limites temporais de fala de cada um, através de um processo de segmentação e agrupamento. No contexto de agrupamento, este trabalho visa dar continuidade ao trabalho intitulado “Detecção do Orador”, com o desenvolvimento de um algoritmo de “agrupamento multi-orador” capaz de identificar e agrupar correctamente os oradores, sem conhecimento prévio do número ou da identidade dos oradores presentes no ficheiro de fala. O sistema utiliza os coeficientes “Mel Line Spectrum Frequencies” (MLSF) como característica acústica de fala, uma segmentação de fala baseada na energia e uma estrutura do tipo “Universal Background Model - Gaussian Mixture Model” (UBM-GMM) adaptado com o classificador “Support Vector Machine” (SVM). No trabalho foram analisadas três métricas de discriminação dos modelos SVM e a avaliação dos resultados foi feita através da taxa de erro “Speaker Error Rate” (SER), que quantifica percentualmente o número de segmentos “fala” mal classificados. O algoritmo implementado foi ajustado às características da língua portuguesa através de um corpus com 14 ficheiros de treino e 30 ficheiros de teste. Os ficheiros de treino dos modelos e classificação final, enquanto os ficheiros de foram utilizados para avaliar o desempenho do algoritmo. A interacção com o algoritmo foi dinamizada com a criação de uma interface gráfica que permite receber o ficheiro de teste, processá-lo, listar os resultados ou gerar um vídeo para o utilizador confrontar o sinal de fala com os resultados de classificação.