36 resultados para Convergência midiática
Resumo:
O presente trabalho consiste em uma interpretação do sentido histórico do programa Gente Inocente!?, da Rede Globo, enquanto produto cultural e mercadológico, e possível mediador da crise da infância atual. Entendemos que as dificuldades na relação com a infância – historicamente constituídas – são geradoras de problemas subjetivos que precisam de um direcionamento. A cultura atual, através de suas produções, vai encarregar-se de propor soluções. Um programa de TV poderá realizar a função de produzir uma imagem unificada da infância que permita às pessoas visualizarem sua continuidade. Gente Inocente!?, através de uma proposta de diversão amena, vai procurar dar estabilidade a essa imagem da infância, fazendo uso de algumas estratégias e artifícios estéticos, condicionados pela forma mercadoria. Para esta análise, utilizamos alguns princípios teóricos e metodológicos da Teoria Crítica da Sociedade proposta pelos pensadores da Escola de Frankfurt, o que nos possibilita desenvolver uma crítica ao objeto a partir de suas contradições internas.
Resumo:
Este trabalho tem como foco central a Praça da Alfândega, em Porto Alegre. Nele foi realizada uma análise das relações de um espaço urbano consolidado com suas intervenções de cunho cultural. Buscando dar suporte às futuras mudanças, tanto nas edificações como no seu próprio espaço. A Praça da Alfândega, localizada na área central de Porto Alegre, teve desde o princípio, sua ocupação acentuada, devido a sua localização privilegiada e suas características geográficas que facilitaram a implantação de um porto no local. A estruturação do espaço foi marcada por três fatos importantes: a construção do edifício da Alfândega, em 1824, sua demolição e construção do aterro de cem metros até o portão do Cais do Porto, em 1912, e a absorção do leito da Rua Sete de Setembro, em 1979. Atualmente a Praça da Alfândega é um dos espaços mais importantes de Porto Alegre, nele encontramse edificações históricas que convivem com um local de grande circulação, lazer e comércio. Os usos obsoletos da Delegacia Fiscal, dos Correios e Telégrafos e do Banco Nacional do Comércio, foram substituídos, respectivamente, pelas intervenções culturais: Museu de Arte do Rio Grande do Sul, Memorial do Rio Grande do Sul e Santander Cultural. Estes projetos satisfazem o diálogo entre o novo e suas preexitências, mas não conseguem potencializar o espaço da Praça que permanece a espera de um projeto que o requalifique.
Resumo:
A presente dissertação versa sobre as relações entre o movimento formado por sete arquitetos milaneses, em 1926, o Gruppo 7, que viria a ser conhecido como “Racionalismo italiano”, e o regime político sob o qual ele floresceu, o Fascismo de Benito Mussolini (1922-1942), na Itália. A questão central é a aparente contradição em que um movimento modernista de vanguarda teria surgido e se desenvolvido sob a égide de um regime considerado retrógrado, conservador e antimodernista; esse caso foi uma exceção na história do modernismo em Arquitetura, uma vez que em outros países europeus, nos quais regimes totalitários análogos foram instituídos, os movimentos modernistas foram sufocados. A partir da análise das idiossincrasias do caso, bem como de aportes recentes de estudos sociológicos sobre o Fascismo, conclui-se que tal contradição pode ser dissipada, uma vez que ambos os movimentos, tanto o Racionalismo italiano como o Fascismo apresentavam características convergentes. As principais foram o sincretismo e a crença no mito de palingenesia, que possibilitaram uma espécie de convivência frutuosa.
Resumo:
Durante a realização de projetos de sistemas de refrigeração assistidos por sistemas de armazenagem de energia, na forma latente, é necessário que se saiba de antemão as taxas de transferência de energia dos mesmos. Na literatura soluções para este problema são escassos e não abordam todas as geometrias utilizadas para o armazenamento de energia latente, inexistindo correlaçõesmatemáticas que permitam aos projetistas prever o comportamento da fusão e da solidificação do material de mudança de fase (MMF) e as taxas de transferência de energia térmica. Na solução destes problemas são usualmente adotadas hipóteses simplificativas para amenizar o grau de complexidade da descrição matemática do problema Uma destas hipóteses constitui-se em desconsiderar o processo advectivo na transferência de calor no MMF, em sua fase líquida. Outra hipótese adotada, quando o MMF é a água pura, consiste em utilizar um comportamento linear para a massa específica ou um comportamento médio, consistindo em um afastamento da realidade. Este trabalho descreve esforços no sentido de aproximar estas soluções cada vez mais da realidade fisica do problema. São apresentadas simulações para a mudança de fase da água pura levando em conta a inversão da massa específica, em geometria polar, na forma transiente, utilizando o método de Volumes Finitos para solução das equações governantes. As soluções apresentadas, otimizadas quanto às malhas espacial e temporal, envolvem condições de contorno de primeira e terceira espécies Como resultado das soluções são apresentados o Nusselt local, ao longo da parede do cilindro além do Nusselt médio. Correlações matemáticas para o número de Nusselt médio durante a fusão e para o volume de MMF fundido, são propostos e apresentados. A evolução geométrica da fronteira de mudança de fase também é avaliada para as duas condições de contorno e diversos números de Rayleigh. Comparações entre o volume fundido considerando apenas o processo difusivo e o volume fundido utilizando a convecção são realizadas. Para a verificação da independ~encia de malha aplica-se o índice de convergência de malha (GCI) . Algumas comparações qualitativas com soluções experimentais disponíveis na literatura são apresentadas.
Resumo:
O objetivo deste trabalho consiste no desenvolvimento de alguns avanços, teóricos e numéricos, no método LTSN visando implementar a primeira versão de um código computacional, para resolver a equação de transporte utilizando formulação LTSN na forma de multigrupos em geometria plana. Os avanços para o método LTSN estão fundamentados na solução iterativa para o sistema de equações que constituem as condições de contorno, um novo método para a busca do valor de keff baseado no método da bissecção. O desenvolvimento desta metodologia permitiu realizar o calculo muito rápido com altas ordens de quadratura e com esforço computacional muito reduzido. Juntos os avanços matemáticos e numéricos, implementados nesta primeira versão de um código fortran, tal como nos códigos já conhecidos permite solucionar a equação de transporte na forma de multigrupos, tanto para o cálculo direto como para o adjunto, com fontes arbitrárias. Este código utiliza de recursos computacionais da linguagem FORTRAN e as bibliotecas LAPACK, para a otimização de seus algoritmos, facilitando o desenvolvimento futuro. A validação deste trabalho foi feita utilizando dois problemas: um relativo ao fluxo angular e escalar, tanto para o fluxo direto como para o adjunto, cuja importância está relacionada com busca de convergência, relação de reciprocidade e comprovação da solução adjunta, e; um problema de criticalidade, para comprovar a eficácia do algoritmo de busca iterativa de keff e espessura crítica. Com este trabalho se abrem muitas possibilidades tanto teóricas como numéricas a investigar com o método LTSN.
Resumo:
Estudo de caráter exploratório e descritivo, que tem como objetivos descrever as características das gestantes portadoras de diabete melito atendidas em um hospital universitário de referência para atendimento de gestantes de alto risco e conhecer como essas mulheres vivenciam o tratamento e cuidado do diabete na gestação. O caminho metodológico escolhido envolveu duas etapas: levantamento de dados de prontuários para descrever as características das gestantes diabéticas atendidas no hospital e o desenvolvimento de Grupo Focal para conhecer como as mulheres vivenciam o tratamento e cuidado do diabete melito na gestação. Nesta pesquisa, estão apresentados os dados de identificação das gestantes atendidas no hospital, no período de janeiro de 2000 a janeiro de 2001, as condições em que ocorreu o parto, as condições do bebê e os valores do perfil glicêmico durante a gestação. Nas discussões do Grupo Focal as gestantes relataram o medo que estavam vivenciando durante toda a gestação em relação à saúde do bebê e em relação ao seu futuro. Questionam também a sistemática de atendimento das gestantes diabéticas, no que se refere ao tempo que necessitam dispor para o tratamento, o qual acarreta o afastamento da família e da atividade profissional. Observa-se uma forte convergência entre os dados coletados nos prontuários e os temas abordados nas discussões do Grupo Focal, os quais se complementam. Os resultados desta pesquisa permitem conhecer as principais preocupações das gestantes diabéticas, ao mesmo tempo que apresentam informações sobre o desfecho das gestações das mulheres diabéticas que realizam seu pré-natal no hospital. Este conhecimento proporciona subsídios importantes para a equipe de saúde que atende esse grupo de gestantes, trazendo segurança para a atuação da equipe e, conseqüentemente, para as gestantes.
Resumo:
Dentre as grandes mudanças ocorridas nos últimos anos é merecido o devido destaque aos fenômenos da globalização e da convergência da tecnologia de informação. Tais fatores propiciaram a mudança do paradigma de uma economia baseada na atividade industrial para uma economia que possui a informação por base. Dentro desta realidade, a Internet mostrou-se campo propício aos negócios, através do desenvolvimento do Comércio Eletrônico. Dentre as várias categorias de negócios emergentes neste ambiente, destacamse as organizações especializadas na intermediação e agenciamento da informação. A necessidade de conhecer os processos que compõem a atividade destas organizações torna-se mais evidente, pois a informação deixou de ser apenas uma ferramenta de controle para tomar a posição de recurso básico à sobrevivência de qualquer atividade econômica. Esta pesquisa buscou, primeiramente, entender as diversas facetas do processo de intermediação de informação na Internet. Para isso, construiu-se, com base na literatura, um modelo preliminar de infomediação focado na identificação e qualificação das demandas informacionais. E, por meio da realização do estudo das necessidades informacionais das empresas gaúchas para a expansão de seus negócios, aplicou-se o modelo construído e desenvo lveuse um sistema semiautomático de coleta de dados em forma de survey via Internet. Assim, espera-se instrumentalizar pesquisadores e administradores para o desenvolvimento de sistema eficaz de identificação e qualificação das demandas informacionais para o processo de Infomediação.
Resumo:
Esta tese apresenta contribuições ao processo de Descoberta de Conhecimento em Bases de Dados (DCBD). DCBD pode ser entendido como um conjunto de técnicas automatizadas – ou semi-automatizadas – otimizadas para extrair conhecimento a partir de grandes bases de dados. Assim, o já, de longa data, praticado processo de descoberta de conhecimento passa a contar com aprimoramentos que o tornam mais fácil de ser realizado. A partir dessa visão, bem conhecidos algoritmos de Estatística e de Aprendizado de Máquina passam a funcionar com desempenho aceitável sobre bases de dados cada vez maiores. Da mesma forma, tarefas como coleta, limpeza e transformação de dados e seleção de atributos, parâmetros e modelos recebem um suporte que facilita cada vez mais a sua execução. A contribuição principal desta tese consiste na aplicação dessa visão para a otimização da descoberta de conhecimento a partir de dados não-classificados. Adicionalmente, são apresentadas algumas contribuições sobre o Modelo Neural Combinatório (MNC), um sistema híbrido neurossimbólico para classificação que elegemos como foco de trabalho. Quanto à principal contribuição, percebeu-se que a descoberta de conhecimento a partir de dados não-classificados, em geral, é dividida em dois subprocessos: identificação de agrupamentos (aprendizado não-supervisionado) seguida de classificação (aprendizado supervisionado). Esses subprocessos correspondem às tarefas de rotulagem dos itens de dados e obtenção das correlações entre os atributos da entrada e os rótulos. Não encontramos outra razão para que haja essa separação que as limitações inerentes aos algoritmos específicos. Uma dessas limitações, por exemplo, é a necessidade de iteração de muitos deles buscando a convergência para um determinado modelo. Isto obriga a que o algoritmo realize várias leituras da base de dados, o que, para Mineração de Dados, é proibitivo. A partir dos avanços em DCBD, particularmente com o desenvolvimento de algoritmos de aprendizado que realizam sua tarefa em apenas uma leitura dos dados, fica evidente a possibilidade de se reduzir o número de acessos na realização do processo completo. Nossa contribuição, nesse caso, se materializa na proposta de uma estrutura de trabalho para integração dos dois paradigmas e a implementação de um protótipo dessa estrutura utilizando-se os algoritmos de aprendizado ART1, para identificação de agrupamentos, e MNC, para a tarefa de classificação. É também apresentada uma aplicação no mapeamento de áreas homogêneas de plantio de trigo no Brasil, de 1975 a 1999. Com relação às contribuições sobre o MNC são apresentados: (a) uma variante do algoritmo de treinamento que permite uma redução significativa do tamanho do modelo após o aprendizado; (b) um estudo sobre a redução da complexidade do modelo com o uso de máquinas de comitê; (c) uma técnica, usando o método do envoltório, para poda controlada do modelo final e (d) uma abordagem para tratamento de inconsistências e perda de conhecimento que podem ocorrer na construção do modelo.
Resumo:
A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.
Resumo:
Este trabalho apresenta novos algoritmos para o roteamento de circuitos integrados, e discute sua aplicação em sistemas de síntese de leiaute. As interconexões têm grande impacto no desempenho de circuitos em tecnologias recentes, e os algoritmos propostos visam conferir maior controle sobre sua qualidade, e maior convergência na tarefa de encontrar uma solução aceitável. De todos os problemas de roteamento, dois são de especial importância: roteamento de redes uma a uma com algoritmos de pesquisa de caminhos, e o chamado roteamento de área. Para o primeiro, procura-se desenvolver um algoritmo de pesquisa de caminhos bidirecional e heurístico mais eficiente, LCS*, cuja aplicação em roteamento explora situações específicas que ocorrem neste domínio. Demonstra-se que o modelo de custo influencia fortemente o esforço de pesquisa, além de controlar a qualidade das rotas encontradas, e por esta razão um modelo mais preciso é proposto. Para roteamento de área, se estuda o desenvolvimento de uma nova classe de algoritmos sugerida em [JOH 94], denominados LEGAL. A viabilidade e a eficiência de tais algoritmos são demonstradas com três diferentes implementações. Devem ser também estudados mecanismos alternativos para gerenciar espaços e tratar modelos de grade não uniforme, avaliando-se suas vantagens e sua aplicabilidade em outros diferentes contextos.
Resumo:
O principal objetivo dessa tese consiste em determinar uma solução numéricada equação bidimensional do transporte de nêutrons para elevadas ordens de quadratura angular. Diagonalizando a matriz de transporte LTSN bidimensional , construímos dois algoritmos que se diferenciam pela forma de representar os termos de fuga transversal, que surgem nas equações LTSN integradas transversalmente. Esses termos no método LTSN2D − Diag são expressos como combinação linear dos autovetores multiplicados por exponenciais dos respectivos autovalores. No método LTSN2D − DiagExp os termos de fuga transversal são representados por uma função exponencial com constante de decaimento heuristicamente identificada com parâmetros materiais característicos do meio. A análise epectral desenvolvida permite realizar a diagonalização. Um estudo sobre o condicionamento é feito e também associamos um número de condicionamento ao termo de fuga transversal. Definimos os erros no fluxo aproximado e na fórmula da quadratura, e estabelecemos uma relação entre eles. A convergência ocorre com condições de fronteira e quadratura angular adequadas. Apresentamos os resultados numéricos gerados pelos novos métodos LTSN2D − Diag e LTSN2D − DiagExp para elevadas ordens de quadratura angular para um problema ilustrativo e comparamos com resultados disponíveis na literatura.
Resumo:
A pesquisa se propõe a analisar a viabilidade de implantação de um sistema de carreira gerencial orientada pela noção de competência em uma universidade privada do Rio Grande do Sul (UNISINOS). Procura-se identificar possibilidades e limitações deste sistema, segundo a percepção de membros da equipe de gerentes, de seus subordinados e da alta administração. Para a análise, foi entrevistada uma amostra de funcionários integrantes dos três níveis hierárquicos: alta administração, gerentes intermediários e subordinados. A análise dos dados da pesquisa foi feita com base no método de análise de conteúdo. Os resultados do estudo indicam que há convergência acerca da noção de competência entre os níveis pesquisados e identificam vantagens na implantação de um sistema de carreira gerencial com base na noção de competência. Entretanto, foram levantados questionamentos no que se refere ao processo e às formas de certificação das competências, tendo em vista que, em geral, há um grau relativamente alto de subjetividade envolvido nestes processos.
Resumo:
Este trabalho faz uma análise ampla sobre os algoritmos de posicionamento. Diversos são extraídos da literatura e de publicações recentes de posicionamento. Eles foram implementados para uma comparação mais precisa. Novos métodos são propostos, com resultados promissores. A maior parte dos algoritmos, ao contrário do que costuma encontrar-se na literatura, é explicada com detalhes de implementação, de forma que não fiquem questões em aberto. Isto só possível pela forte base de implementação por trás deste texto. O algorítmo de Fidduccia Mateyeses, por exemplo, é um algorítmo complexo e por isto foi explicado com detalhes de implementação. Assim como uma revisão de técnicas conhecidas e publicadas, este trabalho oferece algumas inovações no fluxo de posicionamento. Propõe-se um novo algorítimo para posicionamento inicial, bem como uma variação inédita do Cluster Growth que mostrta ótimos resultados. É apresentada uma série de evoluções ao algorítmo de Simulated Annealling: cálculo automático de temperatura inicial, funções de perturbação gulosas (direcionadas a força), combinação de funções de perturbação atingindo melhores resultados (em torno de 20%), otimização no cálculo de tamanho dos fios (avaliação das redes modificadas e aproveitamento de cálculos anteriores, com ganhos em torno de 45%). Todas estas modificações propiciam uma maior velocidade e convergência do método de Simulated Annealling. É mostrado que os algorítmos construtivos (incluindo o posicionador do Tropic, baseado em quadratura com Terminal Propagation) apresentam um resultado pior que o Simulated Annealling em termos de qualidade de posicionamento às custas de um longo tempo de CPD. Porém, o uso de técnicas propostas neste trabalho, em conjunto com outras técnicas propostas em outros trabalhos (como o trabalho de Lixin Su) podem acelerar o SA, de forma que a relação qualidade/tempo aumente.
Resumo:
A convergência da indústria em grandes oligopólios gerou, por longo período, pressões sobre o varejo. Nos últimos anos, o Brasil seguiu o movimento mundial de aquisições de redes supermercadistas menores pelos grandes grupos internacionais. Este fato, em conjunto com a disputa acirrada pela preferência do consumidor, fez com que os canais supermercadistas passassem a investir com maior intensidade na atração de novos clientes, bem como na manutenção dos seus atuais compradores. Através de produtos com a sua insígnia, o canal varejista buscou a fidelização do consumidor, o aumento da rentabilidade e o incremento de vendas em suas lojas. O segmento de marcas próprias apresentou alto índice de crescimento nos últimos anos e os fabricantes vislumbraram neste mercado a perspectiva de aumento de faturamento e a oportunidade de comercialização dos seus produtos em cadeias supermercadistas de grande porte, mesmo sob a marca do varejista. Passados alguns anos, este mercado não atingiu o patamar de crescimento idealizado. Não se pode desprezar este mercado que representa 6,5 % do setor e dispõe de mais de 17.000 itens, mas é preciso avaliar seu verdadeiro impacto sobre os negócios (ACNielsen, 2002). Este estudo teve por objetivo a análise do mercado de marcas próprias sob a perspectiva do fabricante, abordando questões relativas a (a) evolução do segmento, (b) fatores motivadores e restritivos, (c) estratégias da indústria, (d) estratégias do varejo e (e) perspectivas. A partir de um estudo de casos múltiplos realizado com fabricantes de marcas próprias das principais redes supermercadistas do Brasil, identificou-se quais são os fatores que afetam o mercado de marcas próprias. Acrescentando novos conhecimentos às asserções teóricas, observa -se que a participação dos fabricantes no segmento é avaliada positivamente, mas a continuidade desta operação é condicionada ao compartilhamento de estratégias, ações e riscos entre indústria e varejo.