593 resultados para Tabela de Pitágoras
Resumo:
Este estudo preliminar descreve uma proposta de correção de erros nas produções escritas de doze (12) alunos de nível básico de língua inglesa da Universidade de Caxias do Sul (UCS). O objetivo é investigar a relevância da reescrita como estratégia de conscientização, de acordo com a Hipótese do Noticing de Schmidt (1990), buscando promover a correção gramatical e o aprimoramento da produção textual. Nesse contexto, a correção passa a ser uma aliada e não inimiga do aprendiz. O feedback corretivo fornecido através do uso de uma Tabela de Marcação, a conscientização dos erros através da reescrita e o envolvimento dos aprendizes no processo de auto-análise de seus textos revelaram-se condições facilitadoras na busca das formas corretas e na prevenção do erro. A análise dos dados demonstrou uma possível ruptura com a previsibilidade implícita na Hipótese do Noticing, que propõe que prestar atenção a determinados aspectos lingüísticos possibilita sua melhor assimilação e a não recorrência de erros. Os trabalhos evidenciaram uma melhoria progressiva na qualidade da produção escrita apesar do aumento do número de erros, possivelmente devido a uma desinibição por parte dos aprendizes em escrever e a sua opção em assumir riscos na produção de estruturas lingüísticas mais complexas, o que não inviabiliza a proposta da reescrita como estratégia de conscientização.
Resumo:
Durante muitos anos as empresas do ramo automobilístico vêm sendo assediadas com exigências oriundas de normas de sistema da qualidade por parte das principais montadoras de veículos mundiais, em especial as alemãs, americanas, francesas e italianas. Estas montadoras criaram individualmente normas específicas para o sistema da qualidade, todas passíveis de serem auditadas. Estas normas e suas auditorias contudo, oneram por demais uma empresa auditada que forneça para várias montadoras originárias de países distintos, pois a empresa fornecedora, às vezes, dá prioridade a uma norma específica em detrimento de outra. Isto ocorre muitas vezes por falta de tempo, recursos ou até mesmo conhecimento. Esta priorização pode gerar problemas para a empresa auditada pois ela pode receber deméritos, ou até mesmo perder um grande negócio, quando for auditada por uma norma onde não foi dada a devida atenção. O problema ocorre por que as principais normas automotivas para o sistema da qualidade não apresentam o mesmo enfoque e consequentemente as mesmas exigências, fazendo com que as empresas auditadas tenham que conhecer e aplicar os conceitos destas normas na íntegra, tomando o cuidado de não contrariar as exigências de uma outra norma A única forma de minimizar este problema é tentar cumprir todos os requisitos de todas as normas automotivas ao mesmo tempo, dando o mesmo grau de importância. O presente trabalho tem por objetivo apresentar as principais normas de Sistemas de Qualidade predominantes na indústria automobilística brasileira e propor uma sistemática de auto-avaliação unificada que abranja todos os requisitos destas normas. Para isso, será realizada uma correlação entre dos diversos aspectos relevantes de cada uma das normas automotivas, dando ênfase a sua importância, seus objetivos e seus significados, tentando assim, fazer uma análise crítica dos benefícios que elas trazem para as empresas que as utilizam. Para fundamentar este projeto, é apresentado primeiramente um histórico das normas de qualidade com suas finalidades. A seguir, são expostos os tópicos das principais normas de qualidade hoje conhecidas na indústria automobilística, destacando-se a norma ISO 9000, considerada o ponto de partida, ou a base, para as principais normas automotivas existentes. Na seqüência, é mostrada uma análise comparativa destas normas através de uma tabela de correlação dos itens ou tópicos de cada norma. Para finalizar, é apresentada a sistemática proposta de auto-avaliação unificada, bem como uma perspectiva do futuro destas normas, tentando identificar as novas tendências e os novos desafios que estão por vir.
Resumo:
Introdução: Estudos sobre implicações clínicas da nova definição de infarto do miocárdio (IAM), incorporando novos marcadores de lesão miocárdica, são escassos na literatura. A prevalência de IAM e das suas complicações são diretamente dependentes do critério diagnóstico utilizado. Objetivo: Avaliar o impacto diagnóstico, prognóstico e econômico da nova definição de IAM proposta pela AHA/ ESC usando troponina T (TnT) como marcador de lesão cardíaca. Métodos: Um total de 740 pacientes com dor torácica admitidos na Emergência do Hospital de Clínicas de Porto Alegre no período de julho/ 1999 a janeiro/ 2002 foram incluídos no estudo. Creatina quinase total (CK), CK-MB atividade e TnT foram dosados em uma amostra de 363 pacientes, representativa de toda a coorte. Para redefinição de IAM foram utilizados como ponto de corte valores pico de TnT > 0,2 mg/dl. Os desfechos avaliados foram classificados como eventos cardíacos maiores (angina recorrente, insuficiência cardíaca congestiva, choque cardiogênico e óbito) e como procedimentos de revascularização. Também foram avaliados o manejo prescrito, os custos e o faturamento hospitalar. Resultados: Nos 363 pacientes com marcadores dosados, foram diagnosticados 59 casos de IAM (16%) pelos critérios clássicos; enquanto 40 pacientes (11%) tiveram o diagnóstico de IAM pelo critério redefinido, o que corresponde a um incremento de 71% na incidência. Pacientes com IAM redefinido eram significativamente mais idosos e do sexo masculino, apresentaram mais dor atípica e diabetes mellitus. Na análise multivariada, pacientes com infarto redefinido tiveram um risco 5,1 [IC 95% 1,0-28] vezes maior para óbito hospitalar e 3,4 [IC 95% 1,1-10] vezes maior para eventos combinados em relação aqueles sem IAM. O manejo dos casos de IAM redefinido foi semelhante ao manejo daqueles com IAM tradicional, exceto pelos procedimentos de revascularização que foram menos freqüentes (25% vs. 51%, P < 0,001). O grupo com IAM redefinido permaneceu mais tempo internado e foi submetido a procedimentos mais tardiamente. Do ponto de vista institucional, o uso dos novos critérios para IAM poderia resultar em um aumento de 9% (mais R$ 2.756,00 por grupo de 100 pacientes avaliados) no faturamento baseado em diagnóstico segundo a tabela do SUS. Conclusões: O novo diagnóstico de IAM acrescenta um número expressivo de indivíduos com infarto aos serviços de emergência. A incorporação deste critério é importante na medida que estes pacientes têm um prognóstico semelhante aos demais casos tradicionalmente diagnosticados. Como a identificação destes casos poderia resultar em um manejo mais qualificado e eficiente destes pacientes, esforços deveriam ser adotados para reforçar a adoção da redefinição de IAM.
Resumo:
Este artigo apresenta a minha versão da história da inflação inercial. A primeira formulação completa dessa teoria está num artigo meu e de Nakano, de 1983; e o primeiro artigo que propôs um choque de preços combinado com uma tabela de conversão é de 1984, também dos mesmos autores. Resende e Arida escreveram em 1984 o primeiro trabalho propondo uma moeda indexada para neutralizar a inércia; Francisco Lopes, também em 1984, relacionou a inflação inercial com hiperinflação. As principais referências estão aqui claramente apresentadas.
Resumo:
O presente trabalho busca avaliar o estado de conservação dos ambientes naturais do Parque Estadual de Itapuã - RS - Brasil e sua Zona de Amortecimento. Para tanto, efetuou-se uma avaliação em campo e uma avaliação por estrutura e dinâmica de paisagem, por modelagem, em sistema de informação geográfica (SIG). A avaliação em campo se deu pela aplicação de uma tabela de totalização de escores, para indicadores do grau de estresse em que se encontram os alvos de conservação, em uma malha de pontos amostrais regularmente distribuídos na área de estudo. A avaliação espacial temporal desenvolvida em SIG, exigiu a estruturação de uma base cartográfica consistente com a escala de trabalho de 1:25.000, para uma área total de 67.934ha. A dinâmica de paisagem foi desenvolvida pela classificação do uso do solo por fotografias aéreas em 16 classes, para o ano de 1.953 e 1.991, e pelo emprego destas classificações em uma tabulação cruzada, que fornece quais, quanto e onde ocorreram mudanças na composição e estrutura da paisagem. As áreas legalmente protegidas pela legislação atual foram delimitadas para ambas as paisagens estudadas. As maiores mudanças na estrutura da paisagem nesses 40 anos ocorreram pelo acréscimo de 6.797% da área de agricultura e de 988% da área de reflorestamento; pela supressão de 66% da área dos campos úmidos e de 54% das áreas de banhado. Foram delimitadas as áreas-core de biodiversidade, correspondendo às matas nativas e os banhados que permaneceram inalterados no período estudado. O tamanho e o índice de circularidade destas foram levantados. As distâncias a elementos da paisagem, chave para conservação da natureza, foram elaboradas a partir das rodovias, dos corpos hídricos, dos núcleos urbanos e das áreas core. A integração destas variáveis, visando à construção de um modelo de apoio à decisão para conservação da natureza, foi realizado pela análise por múltiplos critérios no programa Idrisi. O coeficiente de correlação entre os resultados das análises de campo e a espacial temporal foi de 0,83. Os resultados demonstram a importância da estrutura e da composição da paisagem como critérios para o planejamento e manejo que visem conservar a biodiversidade.
Resumo:
A segurança dos alimentos é uma preocupação mundial e um fator importante na comercialização de produtos de origem animal. A presença de Salmonella sp. em suínos ao abate e em produtos do tipo frescal podem representar um risco para a saúde do consumidor. A análise de risco prevê a avaliação de diferentes fatores, entre eles a quantificação do microrganismo presente no alimento. A partir disso, a contribuição do presente estudo foi buscar estabelecer um método confiável de quantificação de Salmonella sp. em produtos suínos, uma vez que uma das etapas da análise de risco prevê a quantificação do perigo. No caso de Salmonella sp., a técnica da estimativa do Número Mais Provável (NMP) tem sido adotada. Em uma primeira fase desse trabalho, amostras foram quantificadas, individualmente, com três amostras de Salmonella Typhimurium (ATTCC15290 e 2 amostras de suínos) em três diferentes contagens, 101, 102 e 103 UFC. Para o método A, as amostras quantificadas foram adicionadas a 225 mL de água peptonada tamponada, sendo, posteriormente, fracionadas em 3 alíquotas de 50mL, 5mL e 0,5mL. Para o método B, a amostra fortificada foi diluída em água peptonada tamponada até 10-3, sempre em triplicata. Na segunda fase, foram testadas amostras naturalmente contaminadas, utilizando as mesmas metodologias usadas na primeira fase. Todas as alíquotas de ambos métodos foram incubadas a 370C por 18 horas. Após, cada alíquota foi semeada em caldo Rappaport-Vassiliadis (RV) e incubadas à 420C por 24 h e após, em àgar Xylose-Lysine-Tergitol 4 (XLT4) à 370C por 48 h. Colônias suspeitas foram confirmadas por testes bioquímicos. O número de placas positivas para Salmonella sp. foi utilizado para o cálculo do Número Mais Provável, utilizando tabela apropriada. Na segunda fase, os dois métodos foram avaliados em 20 amostras naturalmente contaminadas, mantidas congeladas por até 115 dias. Em 45 ensaios conduzidos, para cada método, em amostras de lingüiça de carne suína contaminadas artificialmente, 38 do método A e 41 do método B resultaram em NMP (95% de intervalo de confiança) concordante com número de UFC de Salmonella inoculado. A maioria das amostras naturalmente contaminada de massa de embutido apresentaram contagens <10NMP/g. A variabilidade encontrada entre os valores de NMP médio foi bastante elevada, tanto entre os métodos como entre repetições de um mesmo método. Isto reflete uma das limitações do método de NMP para estimar a contagem de microrganismos e deverá ser considerada quando o método for aplicado em alimentos naturalmente contaminados e quando aplicado em um estudo de análise de risco. Uma vez que o método B foi o que demonstrou valores médios de NMP mais próximos das quantidades inoculadas, sugere-se que este seja adotado em estudos futuros de quantificação de Salmonella sp. em produtos de origem suína.
Resumo:
A tomada de decisões é um procedimento complexo e que envolve muitas variáveis. A análise multiobjeto estabelece relações para que, em projetos e planejamento de unidades de gerenciamento, sejam analisados os diversos condicionantes envolvidos. Como nos recursos hìdricos a tomada de decisão envolve cada vez mais a resolução de conflitos e um aumento da diversidade de objetivos, a análise multiobjetivo vem sendo cada vez mais utilizada..O objetivo deste trabalho é desenvolver ferramenta e metodologias que busquem formas de quantificar, avaliar e analisar múltiplos objetivos envolvidos na tomada de decisão em projetos, planejamento e gerenciamento de bacias hidrográficas. Para a elaboração dos estudos foi escolhida a bacia do rio dos Sinos. A bacia do rio dos Sinos abrange parte da Região Metropolitana de Porto Alegre, e é importante pólo econômico do Estado do Rio Grande do Sul Foram identificados condicionantes para a bacia, quais sejam: eficiência econômica, melhoria da qualidade da água, comprometimento social e minimização do impacto ambiental. Cada condicionante foi modelado por metodologias já consagradas para tal. A novidade é o casamento delas o que tornou o problema mais complexo de ser resolvido. Foi elaborada função de compromisso para a bacia do rio dos Sinos.Por fim, baseado em preferências estabelecidas pelo Comitê da Bacia Hidrográfica, foram elaborados tabela e gráficos que auxiliam na tomada de decisão para intervenções no rio, definindo assim, o que deve ser feito primeiro com os recursos disponíveis em um plano de despoluição para a bacia.
Resumo:
Resumo não disponível.
Resumo:
Apesar de o CMMI (Capability Maturity Model Integration) prover uma cobertura mais detalhada do ciclo de vida dos produtos que o uso isolado de outros processos de melhoria, ainda assim não pode ser visto como uma metodologia pronta para ser utilizada pelas organizações. Cada organização deve mapear as áreas de processo do nível CMMI desejado (caso a opção seja a representação por estágios, como veremos adiante) à sua metodologia, aos seus métodos e técnicas de desenvolvimento de produtos e sistemas, levando também em consideração os objetivos de negócio da organização. Tanto o CMMI como as demais normas e modelos de qualidade, dizem “o que” e não “como” fazer. Determinar este “como” é um trabalho adicional bastante grande que as organizações devem realizar quando da adoção destas normas. Para isto, normalmente as organizações buscam no mercado empresas de consultoria que possuem experiência na área. Essas consultorias são bastante indicadas porque aumentam significativamente a qualidade e a velocidade dos resultados. Este trabalho pretende facilitar as organizações interessadas na implementação de um modelo de qualidade, fornecendo descrições sobre alguns dos modelos de qualidade mais utilizados atualmente, bem como modelos de processos, guias e formulários que podem ser utilizados diretamente ou como uma base para a implementação do modelo desejado. Embora se aplique à implementação de qualquer modelo de qualidade, mais especificamente, este trabalho destina-se a auxiliar organizações que visem implementar o modelo CMMI nível 2 (doravante usaremos também a abreviação CMMI-N2). Para tanto, descreve de forma mais detalhada este modelo e fornece um caminho para a implementação do mesmo, incluindo a descrição de um processo mínimo de desenvolvimento de software, com base no RUP (Rational Unified Process) e o uso de um modelo de ciclo de vida de melhoria de processos, o IDEAL. Neste trabalho, propõe-se que seja utilizado o modelo IDEAL para a implementação do modelo de qualidade devido ao fato de este modelo ter sido concebido originalmente como um modelo de ciclo de vida para melhoria de processos de software com base no SW-CMM (Capability Maturity Model for Software). Associado a esse modelo, é sugerido que se utilize algumas técnicas e processos de gerência de projetos para cada área de processo do CMMI-N2, visando implantar cada área de processo através de um projeto. Para a implementação são propostos guias, modelos (formulários) de implementação e uma tabela que mapeia todas as áreas de processo do CMMI-N2, seus objetivos, práticas, produtos de trabalho e as ferramentas associadas.
Resumo:
In this thesis, we present a novel approach to combine both reuse and prediction of dynamic sequences of instructions called Reuse through Speculation on Traces (RST). Our technique allows the dynamic identification of instruction traces that are redundant or predictable, and the reuse (speculative or not) of these traces. RST addresses the issue, present on Dynamic Trace Memoization (DTM), of traces not being reused because some of their inputs are not ready for the reuse test. These traces were measured to be 69% of all reusable traces in previous studies. One of the main advantages of RST over just combining a value prediction technique with an unrelated reuse technique is that RST does not require extra tables to store the values to be predicted. Applying reuse and value prediction in unrelated mechanisms but at the same time may require a prohibitive amount of storage in tables. In RST, the values are already stored in the Trace Memoization Table, and there is no extra cost in reading them if compared with a non-speculative trace reuse technique. . The input context of each trace (the input values of all instructions in the trace) already stores the values for the reuse test, which may also be used for prediction. Our main contributions include: (i) a speculative trace reuse framework that can be adapted to different processor architectures; (ii) specification of the modifications in a superscalar, superpipelined processor in order to implement our mechanism; (iii) study of implementation issues related to this architecture; (iv) study of the performance limits of our technique; (v) a performance study of a realistic, constrained implementation of RST; and (vi) simulation tools that can be used in other studies which represent a superscalar, superpipelined processor in detail. In a constrained architecture with realistic confidence, our RST technique is able to achieve average speedups (harmonic means) of 1.29 over the baseline architecture without reuse and 1.09 over a non-speculative trace reuse technique (DTM).
Resumo:
Esta dissertação é um estudo de caso sobre aprendizagem tecnológica que, considerando as evidências empíricas descritas no Capítulo 6 e à luz da Tabela 3.1, procurou identificar a trajetória de acumulação de competência tecnológica da Enxuta Industrial Ltda., ao longo do período estudado (1980 - 2000), para as funções tecnológicas de investimentos (decisão e controle sobre a planta e engenharia de projetos), de processos e organização da produção, de produtos e de equipamentos. Para construir a estrutura de competências tecnológicas para a indústria de eletrodomésticos foi utilizada a estrutura desenvolvida por Figueiredo (2000). Por outro lado, considerando as evidências empíricas descritas no Capítulo 7 e à luz da Tabela 3.2, procurou-se identificar a influência dos processos de aprendizagem utilizados pela empresa sobre a sua trajetória de acumulação de competência tecnológica. Os processos de aprendizagem são avaliados à luz de quatro características chave: variedade, intensidade, funcionamento e interação, a partir do uso da estrutura desenvolvida por Figueiredo (2000). Este estudo verificou que o modo e a velocidade de acumulação de competência tecnológica na Enxuta Industrial Ltda. foram influenciados pelos processos e mecanismos de aprendizagem usados para adquirir conhecimento tecnológico e convertê-lo em organizacional. Estes processos e mecanismos de aprendizagem propiciaram a empresa alcançar uma maior velocidade na acumulação de capacidades tecnológicas, quando de sua entrada na indústria de eletrodomésticos, o que proporcionou alcançar o desenvolvimento tecnológico necessário para atuar nesta indústria. Porém, a simples incidência desses processos na empresa não garantiu uma implicação positiva para a acumulação de competência tecnológica. Pois, no período de 1991 - 1995, verificou-se a deterioração do funcionamento dos processos de aprendizagem utilizados na empresa, o que pode ter influenciada negativamente a repetibilidade e a interação daqueles processos. Isto parece ter contribuído para que a empresa falhasse em construir e acumular competências tecnológicas inovadoras naquele período. Através do uso de estrutura existente na literatura, aplicada a uma indústria diferente de estudos anteriores, esta dissertação sugere que deve existir um esforço organizado, contínuo e integrado para a geração e disseminação de conhecimento tecnológico na empresa, o que pode acelerar a acumulação de competências tecnológicas, desta forma propiciando à empresa a construção de uma trajetória de aproximação da fronteira de desenvolvimento tecnológica da indústria.
Resumo:
A necessidade de coibir o descontrole do mercado dos planos de saúde tornou-se uma questão importante no cenário nacional, na década de 90. Desta forma, 10 anos após a criação do Sistema Único de Saúde (SUS), em um contexto de pressões e de baixa regulação dos planos de saúde, instituiu-se a Lei no 9.656/1998, uma legislação inédita no Brasil, pois regulou as atividades das operadoras de planos de saúde (OPSs) em nível nacional. Dentre outras questões, a Lei estabeleceu a política de ressarcimento ao SUS, impondo no Artigo no 32 o ressarcimento pelas OPSs das despesas geradas ao SUS quando um beneficiário usa a rede pública para um procedimento coberto pelo seu plano. No entanto, esta política é parte dos conflitos que se situa no limite dos interesses entre o setor privado e público: as OPSs já em 1998 moveram uma ação direta de inconstitucionalidade contra a mesma e têm recorrido frequentemente ao judiciário para não pagarem os valores cobrados pela Agência Nacional de Saúde Suplementar (ANS). Após 12 anos da Lei, ainda não se conhece o seu real impacto. Portanto, o presente trabalho teve como objetivo avaliar a efetividade da política de ressarcimento ao SUS. A metodologia utilizada baseou-se na avaliação de dados produzidos pela ANS e pelo Ministério da Saúde/DATASUS, e das entrevistas realizadas com gerentes da rede pública e privada. Apesar das ações da ANS, os resultados apontaram a reduzida efetividade da política em termos financeiros, jurídicos e sobre o seu público-alvo. Apenas 22% do cobrado às OPSs foi restituído ao Sistema Único de 1999 a 2006, a política é vista como inconstitucional pelo mercado e tem reduzido impacto sobre as OPSs, o SUS e os beneficiários. Questões como os valores da tabela única nacional de equivalência de procedimentos (TUNEP), a inconstitucionalidade do ressarcimento e a opção do beneficiário pelo uso do SUS foram explicitadas pelos gestores de planos de saúde como fatores geradores de resistência das OPSs frente à política. Os dirigentes públicos afirmaram a importância da mesma para tutela de beneficiários e do SUS, como de ter viabilizado a construção do Cadastro de Beneficiários da ANS, porém, reconhecem os seus baixos resultados. Recomenda-se a manutenção do ressarcimento ao Sistema Único como um instrumento para coibir empresas que procuram contornar as exigências legais da Agência Reguladora, a qual atua promovendo a defesa do interesse público na assistência suplementar à saúde. No entanto, a mesma deve sofrer as devidas reformulações e devem ser estabelecidos consensos entre o SUS e o setor suplementar.
Resumo:
Este trabalho estuda a formação dos Bookbuildings em emissões de ações no Brasil, também conhecidos como “Livro de Ofertas”, o último e mais importante estágio de um processo de IPO. Testam-se hipóteses de assimetria de informação, monitoramento e liquidez e conflito de interesse para o caso brasileiro em um conjunto de 18 emissões, todas oriundas de IPO’s emitidos no mercado de capitais brasileiro, sob a ótica das 5 variáveis mais significativas: Tipo de Investidor – curto e longo-prazo; Nacionalidade – Investidores dos Estados Unidos e locais; Participações em ofertas; Tamanho das ofertas; e Preço das emissões. O nosso banco de dados analisa todas as 209 operações de listagem primária e secundária dos últimos 7 anos, desde 2004, na Bovespa. São 209 ofertas públicas. Aprofundamo-nos em 18 delas, das quais possuímos todas as informações de formação de livro de ofertas. Demonstrou-se que em todas essas 18 ofertas o volume de ofertas feitas por investidores estrangeiros de fato “ancorou” as operações (representando mais do que 67% das ordens dos livros), fato que teve uma função muito importante, de “sinalizar” a força das determinadas ofertas em termos de demanda. Das 18 operações, o livro de ofertas de 39% excedeu mais do que 3 vezes a quantidade ofertada pela empresa issuer ao mercado. Em 56% dos casos, a demanda foi maior do que o dobro do número de ações oferecidas pelo issuer. Em 72% dos casos, a demanda excedeu a oferta em pelo menos 50%. A média de demanda das 2.229 ofertas de compra, divididas nos 18 IPO’s estudados, foi de quase 4 vezes o número de ações ofertadas, ou 394%, conforme tabela 11 deste trabalho. Os resultados obtidos seguem na direção das teorias de preferência por investidores de longo prazo em detrimento de investidores de curto prazo. Encontramos que o preço e a participação em diversos IPO’s não são determinantes para explicar as diferenças nas alocações, distanciando nossos resultados das teorias de assimetria de informação. Já as variáveis que exprimem características dos investidores mostraram-se bastante relevantes para explicar as diferenças nas alocações. Primeiramente, o tipo de investidor mostrou-se uma variável decisiva na alocação. Nas hipóteses testadas, encontramos evidências de que investidores de longo prazo, os chamados Long-Only são beneficiados enquanto investidores de curto prazo, em geral hedge-funds e tesourarias, são penalizados nas alocações. Segundo, a nacionalidade do investidor também exprime papel fundamental na alocação. Investidores norte-americanos são beneficiados enquanto investidores brasileiros são penalizados, outro resultado contrário às teorias de troca de alocação por informação, dado que investidores domésticos, em teoria, deveriam ter maior informação do que estrangeiros. Em realidade, se existe um consenso nesse campo de pesquisa é o de que investidores norte-americanos determinam a direção da grande maioria dos recursos destinados a esse mercado e emitem forte sinalização quando “entram” em negócios dessa natureza ao redor do mundo, o mesmo ocorrendo no caso brasileiro e demonstrado em nossa análise, conforme acima mencionado. Os resultados apenas comprovam que esse tipo de ação de tais investidores tem sido premiado por meio de favorecimento em alocações nas ofertas no mercado brasileiro, principalmente quando controlamos para emissões com alta demanda, os chamados Hot IPO’s. Também encontramos evidências contrárias às teorias de controle. Ao regredir nossa variável Tamanho, encontramos um sinal contrário ao esperado. Isto é, para os dados que dispúnhamos, verificamos o favorecimento de grandes ofertas em detrimento de pequenas, enquanto esperaríamos que os underwriters evitassem concentração de ações, “protegendo” as empresas emissoras de eventuais problemas de liquidez e até potenciais tentativas de hostile take-overs no futuro.
Resumo:
Esse estudo objetiva compreender porque as empresas, no Brasil, decidem investir em redes sociais na internet. Foram considerados fatores como a evolução da internet e das próprias redes sociais interativas (em especial Twitter, Facebook e YouTube), as rápidas mudanças tecnológicas que ocorrem no ambiente digital e o papel das agências de comunicação no mercado virtual. Nesse contexto, foi possível observar a importância das redes sociais, atualmente, no negócio das empresas. A falta de material acadêmico sobre o assunto fez com que a visita e a coleta de materiais em diversos websites fossem um recurso complementar valioso. Adicionalmente, com o foco no cenário brasileiro, foram realizadas entrevistas qualitativas semiestruturadas, com 11 gestores de empresas e três gestores de agências de comunicação, o que propiciou um mapeamento das motivações para a utilização das redes sociais pelas empresas, assim como o levantamento de outras informações valiosas para esse trabalho. O referencial teórico buscou contextualizar um panorama privilegiado nesse estudo, considerando o ambiente dinâmico da internet, as redes sociais interativas e seu valor, a mobilidade de acesso, e as agências de publicidade e redes sociais. Além dos resultados apresentados nesse estudo, as revelações de campo e suas discussões propiciaram a elaboração de uma tabela de grau de maturidade social em relação ao momento em que as empresas estão no âmbito digital, assim como o desenvolvimento de um modelo de aprendizagem organizacional no ambiente virtual para redes sociais. Finalmente, foram apresentadas as conclusões, assim como as considerações finais. O estudo demonstrou a importância das redes sociais no cotidiano das empresas e a necessidade de estarem presentes no ambiente virtual, já que estão nesse universo mesmo que de maneira passiva. Embora não tenha havido um fator genérico que possa ser utilizado como padrão motivacional para o investimento inicial nas redes sociais, a visibilidade da exposição da marca nesse meio, seguida pela necessidade de criar um canal de relacionamento com o cliente destacaram-se como fatores motivacionais mais relevantes para esse movimento.
Resumo:
Nosso objetivo no presente artigo é o de, com fundamento em um arcabouço teórico que suporta o que iremos denominar de condições de consistência (financeira), analisar criticamente tanto as características da Tabela Price, como também as associadas a alguns sistemas de amortização, com prestações constantes, que fazem uso do regime de juros simples.