908 resultados para Base de dados e Aplicação Móvel


Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMO - As organizações de saúde, em geral, e os hospitais, em particular, são frequentemente reconhecidos por terem particularidades e especificidades que conferem uma especial complexidade ao seu processo produtivo e à sua gestão (Jacobs, 1974; Butler, 1995). Neste sentido, na literatura hospitalar emergem alguns temas como prioritários tanto na investigação como na avaliação do seu funcionamento, nomeadamente os relacionados com a produção, com o financiamento, com a qualidade, com a eficiência e com a avaliação do seu desempenho. O estado da arte da avaliação do desempenho das organizações de saúde parece seguir a trilogia definida por Donabedian (1985) — Estrutura, Processo e Resultados. Existem diversas perspectivas para a avaliação do desempenho na óptica dos Resultados — efectividade, eficiência ou desempenho financeiro. No entanto, qualquer que seja a utilizada, o ajustamento pelo risco é necessário para se avaliar a actividade das organizações de saúde, como forma de medir as características dos doentes que podem influenciar os resultados de saúde. Como possíveis indicadores de resultados, existem a mortalidade (resultados finais), as complicações e as readmissões (resultados intermédios). Com excepção dos estudos realizados por Thomas (1996) e Thomas e Hofer (1998 e 1999), praticamente ninguém contesta a relação entre estes indicadores e a efectividade dos cuidados. Chamando, no entanto, a atenção para a necessidade de se definirem modelos de ajustamento pelo risco e ainda para algumas dificuldades conceptuais e operacionais para se atingir este objectivo. Em relação à eficiência técnica dos hospitais, os indicadores tradicionalmente mais utilizados para a sua avaliação são os custos médios e a demora média. Também neste domínio, a grande maioria dos estudos aponta para que a gravidade aumenta o poder justificativo do consumo de recursos e que o ajustamento pelo risco é útil para avaliar a eficiência dos hospitais. Em relação aos sistemas usados para medir a severidade e, consequentemente, ajustar pelo risco, o seu desenvolvimento apresenta, na generalidade, dois tipos de preocupações: a definição dos suportes de recolha da informação e a definição dos momentos de medição. Em última instância, o dilema que se coloca reside na definição de prioridades e daquilo que se pretende sacrificar. Quando se entende que os aspectos financeiros são determinantes, então será natural que se privilegie o recurso quase exclusivo a elementos dos resumos de alta como suporte de recolha da informação. Quando se defende que a validade de construção e de conteúdo é um aspecto a preservar, então o recurso aos elementos dos processos clínicos é inevitável. A definição dos momentos de medição dos dados tem repercussões em dois níveis de análise: na neutralidade económica do sistema e na prospectividade do sistema. O impacto destas questões na avaliação da efectividade e da eficiência dos hospitais não é uma questão pacífica, visto que existem autores que defendem a utilização de modelos baseados nos resumos de alta, enquanto outros defendem a supremacia dos modelos baseados nos dados dos processos clínicos, para finalmente outros argumentarem que a utilização de uns ou outros é indiferente, pelo que o processo de escolha deve obedecer a critérios mais pragmáticos, como a sua exequibilidade e os respectivos custos de implementação e de exploração. Em relação às possibilidades que neste momento se colocam em Portugal para a utilização e aplicação de sistemas de ajustamento pelo risco, verifica-se que é praticamente impossível a curto prazo aplicar modelos com base em dados clínicos. Esta opção não deve impedir que a médio prazo se altere o sistema de informação dos hospitais, de forma a considerar a eventualidade de se utilizarem estes modelos. Existem diversos problemas quando se pretendem aplicar sistemas de ajustamento de risco a populações diferentes ou a subgrupos distintos das populações donde o sistema foi originalmente construído, existindo a necessidade de verificar o ajustamento do modelo à população em questão, em função da sua calibração e discriminação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Considerando a língua como um produto da sociedade, mas também como um meio fundamental para o estabelecimento de relações entre os homens, procuramos perceber o seu lugar na sociedade globalizada, com o objectivo de desenvolver uma metodologia de análise terminológica que contribua para uma maior qualidade da comunicação especializada na sociedade em rede. Este trabalho está organizado em duas partes, sendo a primeira dedicada à reflexão sobre o papel da língua na sociedade em rede, focando questões essenciais em torno da tensão existente entre o multilinguismo e a hegemonia do inglês enquanto lingua franca, sobretudo no espaço europeu. Interessa-nos, por um lado, reflectir sobre a definição de políticas linguísticas, concretamente na Europa multilingue dos 28, e, por outro, salientar o papel preponderante que a língua tem na transmissão do conhecimento. A segunda parte deste trabalho concretiza a investigação efectuada na primeira com base na análise do relato financeiro, um domínio do saber que não só é inerentemente multilingue ¾ porque a sua aplicação é transnacional ¾ mas também reflecte a tensão identificada na primeira parte, na medida em que o inglês assume, no mundo dos negócios em geral e nos mercados financeiros em particular, o papel hegemónico de lingua franca. A abordagem terminológica que defendemos é semasiológica para fins onomasiológicos, pelo que partimos da análise do texto de especialidade, organizado em corpora de especialidade. Discutimos subsequentemente os resultados da nossa análise com os especialistas que os irão validar e cuja colaboração em diversos vi momentos do processo de análise terminológica e conceptual é fundamental para garantir a qualidade dos recursos terminológicos produzidos. Nesta óptica, exploramos um corpus de textos legislativos no âmbito do Sistema de Normalização Contabilística (SNC), de modo a delinearmos uma metodologia de trabalho que, no futuro, conduzirá à construção de uma base de dados terminológica do relato financeiro. Concomitantemente, efectuamos também um estudo sobre a Estrutura Conceptual do SNC, para o qual elaboramos uma comparação ao nível da tradução especializada no relato financeiro, com base num corpus paralelo composto pela legislação contabilística internacional endossada pela União Europeia. Utilizamos o corpus paralelo constituído por textos redigidos originalmente em inglês e traduzidos para português, em articulação com o corpus de especialidade criado com a legislação relativa ao normativo contabilístico português, para testar uma metodologia de extracção de equivalentes. Defendemos, por fim, que a harmonização no relato financeiro para além de se reger por políticas contabilísticas comuns, deve ter subjacentes questões terminológicas. É necessário, portanto, harmonizar a terminologia do relato financeiro, possibilitando aos especialistas uma comunicação em português isenta da interferência do inglês herdado das normas internacionais, através dos dois processos que identificamos: a tradução e a adaptação das Normas Internacionais de Contabilidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O galgamento oceânico é um fenómeno associado à interação de ondas com estruturas marítimas. Nesta dissertação estudou-se o galgamento em estruturas marítimas verticais através da aplicação do modelo numérico AMAZON, que é um modelo bidimensional, baseado na resolução das equações não lineares de águas pouco profundas. Para validar a sua aplicação a estruturas marítimas verticais impermeáveis, os resultados de caudal médio galgado obtidos com o modelo AMAZON foram comparados com os resultados de ensaios em modelo físico bidimensional realizados anteriormente e disponíveis na base de dados do projeto europeu CLASH. Os resultados foram ainda comparados com os das fórmulas empíricas e semi-empíricas de Van der Meer & Bruce de 2014, de Goda de 2008 e de Hedges & Reis de 2015. Antes da sua validação, o modelo foi calibrado utilizando um dos ensaios do CLASH. Para tal, realizou-se uma análise de sensibilidade a alguns parâmetros do modelo, concretamente da dimensão mínima da malha, da escala de aplicação do AMAZOM (à escala reduzida ou à do protótipo), da forma de modelação da parede vertical, já que, dado este modelo ser integrado na vertical, não é possível considerar paredes verticais sem utilizar um artifício de cálculo, dos valores de alguns dos parâmetros de entrada do modelo (profundidade mínima molhada e a profundidade mínima de fricção) e da dimensão do domínio de cálculo. Os resultados da calibração do AMAZON mostram que, por causa da precisão do modelo para os menores caudais médios de galgamento, se deve aplicar o modelo à escala do protótipo. Para estruturas verticais, a aproximação que o modelo faz, por defeito, para a secção vertical da estrutura através de um talude fictício a 10:1 apresenta melhores resultados que a utilização de um talude a 20:1. Contudo, ambos requerem a adoção de uma dimensão da malha bastante reduzida nesta zona e na sua vizinhança (0.03 m). No caso em estudo, os dois parâmetros de entrada do modelo não têm impacto significativo nos resultados, ao contrário do domínio de cálculo que, tal como recomendado na literatura de referência, se deve iniciar (fronteira de entrada) a aproximadamente um comprimento de onda do pé da estrutura. Os resultados obtidos mostram que, em geral, o AMAZON subestima o valor medido do caudal médio galgado com erros relativos variáveis entre -91% e -49%; apenas para um caso o modelo sobrestima o caudal médio, com um erro relativo de 43%. Quando comparado com as formulações empíricas e semi-empíricas, a fórmula de Van der Meer & Bruce apresenta melhores aproximações aos caudais médios medidos que constam na base de dados do CLASH, seguida da fórmula de Goda e dos resultados do modelo AMAZON, embora estes dois últimos apresentem valores bastante próximos. Assim, uma vez que o modelo está em constante desenvolvimento, espera-se que no futuro seja uma ferramenta mais poderosa. Contudo, enquanto não se fizerem melhorias no modelo e/ou não se estender a outros ensaios a análise feita no âmbito desta dissertação, os resultados sugerem que não há vantagem na sua utilização face às formulações empíricas e semi-empíricas disponíveis, tendo também em conta o significativo tempo computacional exigido para executar o AMAZON com a dimensão da malha escolhida.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

o presente trabalho é uma análiseda evolução,no período 1986-1997,da demandade transportesna Região Metropolitanade Porto Alegre -RMPA, considerando as taxas médias de viagens diárias dos indivíduos, agrupados segundo características sócio-demográficas e econômicas comuns. A evolução temporal da mobilidade é enfocada pelos deslocamentos necessários à execução das atividades humanas, as quais vão se modificando com o tempo, sob influência de aspectos de natureza física-espacial e relacionados às características sociais e comportamentais das sociedades industrializadas, tais como a queda da fertilidade, o crescimento da expectativa de vida, a elevação do nível educacional, a maior participação das mulheres no mercado de trabalho, a motorização. Adotando a segmentação como técnica para análise de comportamento da geração de viagens e do Chi-squared Automatic Interaction Detection-CHAID como instrumento de modelagem, foram obtidas as taxas de viagens de grupo de indivíduos, com base nos dados da pesquisa de origem e destino, realizada em 1986, na RMPA. Esses segmentos, organizados a partir da combinação de oito critérios sóciodemográficos e econômicos, individuais ou familiares, permitiram analisar o comportament Considerando a ocupação dos indivíduos, principal variável na estruturação da mobilidade de uma população, foi examinada a situação dos trabalhadores e das donas de casa, pelas suas condições diversas quanto à regularidade e compulsoriedade das atividades. Observou-se que as taxas médias dessas categorias eram diferentes, sendo mais altas as dos trabalhadores, enquanto o comportamento de ambas era similar, aumentando com o crescimento do nível educacional dos indivíduos, com a posse de automóveis e a presença de crianças nas famílias. Com o mesmo tipo de dados, coletados na pesquisa realizada em 1997, foram calculadas as taxas médias para os grupos obtidos com a segmentação, sendo possível cotejar os resultados e compreender a relação entre as mudanças no comportamento da geração de viagens e nos indicadores sócio-demográficos e econômicos. A hipótese de estabilidade temporal da mobilidade na RMPA, de 86 para 97, não foi confirmada na maioria dos casos. A seguir, esses resultados foram comparados aos obtidos em estudos feitos na Região Metropolitana de São Paulo, com a aplicação da mesma metodologia e utilização de dados das pesquisas de origem e destino realizadas em 77 e 87. Foram constatadas as diferenças na evolução das taxas dos trabalhadores e donas de casa, entre uma região metropolitana e outra; e destacada a importância de algumas variáveis, presentes nos dois estudos de caso, para explicar a mobilidade. Ressalta-se, por fim, a necessidade de estudos desta natureza, valorizando a execução de pesquisas e o seu aproveitamento no planejamento de transportes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A integração de aplicações heterogêneas é uma tarefa constante entre empresas do mundo moderno. A grande quantidade de fornecedores de software, aliada à extensa variedade de técnicas e linguagens computacionais utilizadas, fazem desta integração uma tarefa trabalhosa e cara para as organizações. As alternativas existentes para a integração de sistemas de diferentes fornecedores podem variar, desde acesso compartilhado a uma base de dados comum, uso de replicadores de dados entre bases de dados distintas, troca de mensagens entre aplicações, ou o uso de programas exportadores/importadores, gerando arquivos em um formato previamente protocolado entre os desenvolvedores dos softwares envolvidos. Este trabalho visa propor uma alternativa para a integração de sistemas heterogêneos, fazendo uso da tecnologia XML para representar os dados que são trocados entre os aplicativos. Para tanto, sugere um framework a ser utilizado no planejamento da arquitetura dos softwares. O objetivo principal da adoção de um framework é a utilização de uma metodologia previamente desenvolvida e certificada, economizando tempo de análise para a solução de um problema. O framework proposto subtrai dos desenvolvedores a necessidade de alteração do código fonte dos seus programas cada vez que a integração com um novo fornecedor de software se faz necessária, ou que há alteração no formato dos dados trocados entre os aplicativos. Este efeito é conseguido através da utilização de XSLT para a conversão de formatos de documentos XML trocados pelos softwares. Tal conversão é realizada por um processador XSLT externo aos programas envolvidos. Para simplificar o processo, foi desenvolvido o protótipo de uma ferramenta para a geração de templates XSLT. Templates são elementos da especificação XSLT capazes de realizar a transformação entre estruturas representadas em XML. O gerador de templates XSLT é uma ferramenta gráfica capaz de converter mapeamentos realizados entre estruturas XML em templates XSLT, podendo aplicar as transformações geradas a documentos XML, com a finalidade de teste ou transformação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho se insere dentro de uma aplicação real na Assembléia Legislativa do Rio Grande do Sul (ALERGS), desenvolvida no Departamento de Sistemas de Informações, aproveitando-se do Sistema PRIMA/Vídeo – um sistema de veiculação interna de sinais dedeo – já existente desde novembro de 1996. O PRIMA/Vídeo surgiu da necessidade de implantação de um sistema que permitisse o acompanhamento das múltiplas reuniões realizadas simultaneamente no âmbito do Palácio Farroupilha. Um projeto foi elaborado pela IBM do Brasil e implantado um sistema composto por dezesseis câmeras de sinais dedeo ligadas a uma rede de 120 estações, que recebem analogicamente e em tempo real os sinais dedeo. Este sistema permite o acompanhamento on-line de qualquer reunião nas dependências da ALERGS, além de receber imagens dos canais das emissoras a cabo. Entretanto, surgiu a necessidade de gravação destes vários eventos ocorridos para posterior exibição, criando, assim, um estudo para um sistema de informações composto de dados multimídia (sinais dedeo do PRIMA/Vídeo). O Sistema de Informações Hipermídia da Assembléia Legislativa (SIHAL) visa o armazenamento e a disponibilização de sinais dedeo (imagem e som) aos usuários internos da ALERGS. Através deste novo Sistema, os usuários poderão assistir a reuniões realizadas anteriormente e terão opções com capacidade de: • armazenar e organizar fisicamente os vídeos analógicos das Sessões Plenárias; • organizar o agendamento das Sessões Plenárias solicitadas no canal analógico dedeo do PRIMA/Vídeo; • armazenar digitalmente os principais trechos dedeo dos eventos da Assembléia; • fornecer o download dos trechos digitalizados aos usuários pela interface do Sistema; • fornecer a fita dedeo aos usuários do Sistema; • criar uma base de dados dedeo referente às imagens digitalizadas das Sessões Plenárias; • fornecer acesso à base de dados dedeo. A principal contribuição desta dissertação é o estudo sobre soluções mistas, integrando dados multimídia analógicos e digitais com o intuito de propor um Sistema de Informações Hipermídia, o qual foi denominado de SIHAL. Um protótipo do SIHAL será implementado como demonstração da viabilidade das idéias citadas no sistema proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O tema da presente tese é a demanda do gás natural em um novo mercado, que se encontra em expansão.O objetivo geral é o desenvolvimento de uma metodologia para a previsão de demanda do gás natural, estabelecendo um método que integre as diversas alternativas de previsão de demanda desenvolvidas. Primeiramente, é feita uma revisão da literatura abordando os seguintes temas: (i) demanda de energia no Brasil e no mundo; (ii) demanda de gás natural no Brasil e no mundo; (iii) oferta de gás natural no Rio Grande do Sul; (iv) modelos de previsão de demanda energética; (v) pesquisa qualitativa e grupos focados. São, então, desenvolvidas as alternativas para a previsão de demanda de gás natural: (i) baseado em dados históricos do Rio Grande do Sul: com base no comportamento pregresso da demanda energética estadual faz-se uma extrapolação dos dados de demanda futuros, estimando-se um percentual de participação do gás natural neste mercado; (ii) baseado em equações de previsão que se apóiam em dados sócio-econômicos: tomando-se como embasamento o tamanho da população, PIB, número de veículos da frota do estado, e as respectivas taxas de crescimento de cada uma destas variáveis, estima-se o potencial consumo de gás natural (iii) baseado em dados históricos de outros países: tomando-se por base os dados de países onde já se encontra consolidado o mercado de gás natural, faz-se uma analogia ao caso brasileiro, particularmente o estado do Rio Grande do Sul, visualizando o posicionamento deste mercado frente à curva de crescimento e amadurecimento do mercado consolidado; (iv) baseado na opinião dos clientes potenciais: através de grupos focados, busca-se a compreensão das variáveis que influenciam as decisões dos consumidores de energia, bem como a compreensão das soluções de compromisso (trade off) realizadas quando da escolha dos diferentes energéticos, utilizando-se técnicas do tipo “preferência declarada”; (v) baseado na opinião de especialistas: através de grupos focados com profissionais do setor energético, economistas, engenheiros e administradores públicos busca-se o perfil de demanda esperado para o gás natural. São aplicadas as alternativas individuais à previsão da demanda do gás natural no estado do Rio Grande do Sul, verificando a necessidade de adaptações ou desenvolvimentos adicionais das abordagens individuais. Neste momento, começa-se a construção do método integrador, partindo-se da visualização de benefícios e carências apresentados por cada alternativa individual. É, então, elaborada uma proposta para integrar os resultados das diversas abordagens. Trata-se da construção de um método para a previsão de demanda energética de gás natural que compatibiliza resultados qualitativos e quantitativos gerados nas abordagens individuais. O método parte de diferentes inputs, ou seja, os dados de saída gerados por cada abordagem individual, chegando a um output único otimizado em relação à condição inicial. A fase final é a aplicação do método proposto à previsão de demanda de gás natural no estado do Rio Grande do Sul, utilizando a base de dados gerada para o estudo particular do estado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo verifica a presença de novos padrões comunicacionais e novas práticas comunicativas na experiência do Orçamento Participativo de Porto Alegre na Internet e a sua relevância para a participação política. É um estudo descritivo e avaliativo elaborado a partir da decupagem do Web site do OP e de informações qualitativas e quantitativas retiradas da base de dados referente a participação pela Internet realizada em 2001, primeiro ano do e-OP. Descreve o conjunto de conteúdos e processos disponíveis no site e constrói um perfil inicial do participante online a partir de dados referentes à origem geográfica, às faixas de renda e ao sexo do participante. A análise destes dados orienta-se por uma tipologia de novos padrões comunicacionais e novas práticas comunicativas elaborada a partir da reflexão teórica realizada por esta pesquisa sobre a comunicação na Governança Eletrônica. A aplicação do modelo proposto identifica as potencialidades que asseguram a relevância e a peculiaridade do e-OP como uma nova prática comunicativa, mas também aponta os limites desta experiência, que tem registrado uma redução crescente no número de participantes a cada ano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho visa explorar, com base em dados brasileiros, a relação entre diversificação e performance. Como medida de performance serão utilizados valores correspondentes ao índice q de Tobin para empresas de capital aberto. Para o cálculo do índice de diversificação de uma firma serão utilizados índices compostos a partir da codificação americana SIC (Standard Industry Code). A verificação da relação estatística entre diversificação e performance será então aferida através da aplicação de modelos de regressão linear e sistemas de equações estruturais simultâneas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este projeto de pesquisa teve por objetivo aprofundar o conhecimento acadêmico sobre a maneira como as empresas estão se utilizando da Internet e outras tecnologias da informação para agregar valor e/ou reduzir custos para os seus clientes, com foco na possibilidade de virtualização dos produtos/serviços oferecidos e dos processos utilizados na sua obtenção, incluindo o relacionamento com fornecedores e outros parceiros comerciais. O estudo foi realizado com base em dados levantados a partir de pesquisa de campo, com aplicação de questionário, e na utilização de métodos quantitativos para a análise das informações obtidas. O objetivo principal foi verificar se o modelo preliminar proposto explicava o comportamento das empresas industriais de São Paulo, permitindo uma reflexão sobre eventuais discrepâncias e o aprimoramento do modelo, além da recomendação de linhas de ação para as empresas. Procurou-se, ainda, determinar se os usos feitos da Internet pelas empresas envolvidas na pesquisa, assim como as transformações por elas realizadas em seu ambiente empresarial em virtude da disponibilização das novas tecnologias, eram extensíveis a outros segmentos do mercado, além dos que representaram o objeto de estudo imediato deste trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Essa dissertação trata de algumas variáveis que podem influenciar a percepção dos consumidores no contexto de análises comparativas de preços durante o processo de compra. As variáveis estudadas foram: a forma de apresentação das ofertas dos produtos, a escolaridade dos participantes do estudo e a familiaridade para com o uso do produto. A importância desse estudo está fundamentada na necessidade de entendimento de como a percepção de vantagem na aquisição de produtos ocorre na presença das variáveis de influência estudadas, com o propósito prático de aplicação dos resultados no mercado varejista. A pesquisa foi realizada por meio de um estudo empírico, na cidade de São Luís ¿ MA, utilizando uma amostra de cento e noventa e duas pessoas, divididas igualmente entre estudantes de escolaridade média e superior. Os participantes do estudo avaliaram situações de compra em cenários fictícios com formas de apresentação de ofertas distintas, em que a percepção de vantagem foi avaliada em função das escolaridades e das familiaridades utilizadas no estudo. A base teórica para desenvolvimento do trabalho considerou a Teoria dos Prospectos de Kahneman e Tversky (1979) e a Teoria da Contabilidade Mental de Thaler (1985). Em função da natureza da base de dados foram utilizados testes não-paramétricos de Friedman, Kruskal-Wallis, Wilcoxon e Mann-Withney. Os resultados obtidos confirmaram as hipóteses levantadas e geraram subsídios para pesquisa futura envolvendo o aspecto familiaridade relacionada às marcas. Palavras-chave: contabilidade mental, percepção, preço de referência.