232 resultados para Audiências, Meios, Comunicação, Medição, Programação e Planeamento.
em Repositório Científico do Instituto Politécnico de Lisboa - Portugal
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing
Resumo:
Dissertação apresentada à Escola Superior de Educação de Lisboa para obtenção de grau de mestre em Ciências da Educação - Especialidade Educação Especial
Resumo:
Os media encontram-se perante um cenário muito diferente daquele que existia aquando da fundação da RTP, há 50 anos, o qual se caracterizava pela complexidade e pela turbulência do mercado. O primeiro aspecto resulta das dificuldades com as quais se debatem as empresas de comunicação, enquanto o segundo decorre da instabilidade e da falta de orientação clara nos mercados, factores que originam incerteza e riscos estratégicos. As pressões sobre os media são provocadas por cinco factores decisivos subjacentes ao desenvolvimento contemporâneo do sector: abundância de meios de comunicação; fragmentação e polarização das audiências; desenvolvimento de carteiras de produtos; erosão da força das empresas de media; e alterações de poder no processo comunicacional. O primeiro factor torna-se visível através do acréscimo dramático de tipos e unidades de media, bem como do crescimento da oferta, que excede largamente o aumento de procura em termos monetários e temporais. Dispararam a quantidade de páginas dos jornais e o número de horas diárias de emissão (tanto de rádio como de televisão) e de revistas e livros publicados. Nesta altura, as condições técnicas e económicas e as políticas públicas fomentam o aparecimento de novos fornecedores de conteúdos, aumentando, dramaticamente, a oferta de empresas.
Resumo:
Com este relatório pretende-se analisar a opinião dos pais sobre a aceitação dos meios de comunicação social por crianças e adolescentes portugueses utilizando como ferramenta a inferência estatística, e tendo por base um inquérito efectuado a 504 pessoas.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Jornalismo.
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Civil na Área de especialização de Vias de Comunicação e Transportes
Resumo:
A inovação e o desenvolvimento tecnológico obrigam os fabricantes a uma intensa competição global, face a uma redução no ciclo de desenvolvimento dos produtos e a rigorosos constrangimentos de custos, ao mesmo tempo que enfrentam consumidores mais exigentes, que procuram produtos de Qualidade. A Fiabilidade do bem é um aspecto marcante dessa Qualidade. Tradicionalmente o acesso a essa fiabilidade é baseado em testes de vida, normalmente acelerados. Todavia, para produtos altamente fiáveis, pouca informação a respeito da sua fiabilidade é fornecida por via dos testes de vida, nos quais poucas ou nenhumas falhas são observadas. Perante este cenário, a análise de degradação surge como uma técnica alternativa atractiva aos clássicos métodos de estudo da fiabilidade, apresentando como grande vantagem o facto de não ser necessário que nenhuma falha ocorra para se obter informação sobre a fiabilidade do bem, beneficiando ainda de uma redução no tempo de duração dos testes. Este trabalho começa por abordar os fundamentos da teoria da fiabilidade, e sua aplicação ao ciclo de vida dos componentes, fazendo alusão aos modelos de fiabilidade, ou distribuições de vida que mais usualmente se ajustam as várias fases de vida de um bem, nomeadamente a distribuição Exponencial, Normal e com particular destaque à versátil distribuição de Weibull. De seguida é feita a abordagem à análise de degradação dos componentes como uma técnica útil para estimar a fiabilidade de um bem, e neste contexto é feita a abordagem de uma metodologia de análise da degradação com base na monitorização da condição dos componentes. Quando um bem está sujeito a um processo de degradação, onde se pode fixar um valor limite para a característica que está a ser medida, pode-se recolher uma série de dados relativos ao processo em causa, servindo estes para ajustar um modelo matemático de degradação, que por extrapolação da curva de degradação permitem estimar o tempo até à falha, e por consequência o tempo de vida útil restante.O trabalho enquadra ainda a análise da degradação dos componentes numa perspectiva de apoio à estratégia de manutenção, no domínio da manutenção condicionada, e em particular no quadro da manutenção preditiva, tendo por objectivo fazer a optimização do programa de manutenção a aplicar, de forma a minimizar os custos globais da função manutenção. Nesta vertente são também considerados os intervalos P-F para monitorizar a evolução do estado de falha, em que é necessário definir o valor do parâmetro analisado para o qual se considere o início do processo de falha e o correspondente valor de falha efectiva. É apresentado um estudo prático com a colaboração duma prestigiada empresa de comercialização e distribuição de veículos pesados, focalizado num modelo de camião específico comercializado por essa marca. O estudo está direccionado para o sistema de travagem do veículo, mais concretamente a um dos seus componentes mecânicos, as pastilhas de travão. Este componente tem associado o mecanismo de degradação conhecido por desgaste. A medição do parâmetro de desgaste será feita por meio da técnica de simulação de valores, tendo no entanto em consideração, uma base de dados restrita de valores reais. O estudo de fiabilidade deste componente tem por objectivo fundamental estimar o tempo de Vida Útil Restante (“Residual Useful Life, RUL”) para as pastilhas, ou seja, até que se atinja o valor limite admissível (considerado como falha). Para os cálculos foi utilizado o programa informático denominado Weibull ++7. O caso de estudo permitiu determinar para situações particulares a relação entre o desgaste e a distância percorrida, estimando-se desta forma a vida restante (em distância), até ao momento em que o componente atinge o limite de desgaste considerado admissível. O grande potencial de estudo futuro passa pela elaboração de um modelo (com base em dados reais de exploração), que contemple os principais factores de influência, e que duma forma expedita permita a gestores de frota, fabricantes ou responsáveis da marca fazer a análise da fiabilidade do componente, tendo em conta uma situação específica de exploração. O conhecimento da fiabilidade das pastilhas pode levar à optimização da exploração do veiculo, por meio de um planeamento estratégico da sua manutenção,nomeadamente ao nível do aprovisionamento, na programação das intervenções, e em particular quanto à vida útil restante para as pastilhas.
Resumo:
Este artigo analisa a questão da eficácia publicitária num contexto de saturação. O reconhecimento da marca ou a recordação da publicidade associada à marca serão sempre, pelo menos, objectivos secundários de uma qualquer campanha publicitária. A eficácia surge assim associada inegavelmente à capacidade de memorização por parte do público-alvo das campanhas. Assim, parece consensual que as bases da eficácia publicitária são a memorização e a frequência publicitária no seu conjunto. Os modelos quantitativos existentes baseados em extensas bases de dados utilizados para estimar os resultados de eficácia utilizam sobretudo a relação cobertura/repetição, mas não chegam para saber qual a real eficácia do anúncio face aos objectivos junto de um determinado target. É possível aumentar a eficácia, através da criatividade, sem aumentar a pressão publicitária. Num contexto de saturação publicitária, o aumento da pressão publicitária não resultará certamente em maior eficácia. A resposta passará pelo poder da criatividade, desde logo nas estratégias do marketing e da comunicação, mas também das próprias mensagens publicitárias e na criatividade ao nível da utilização dos meios, sejam eles mais ou menos tradicionais.
Resumo:
A presente dissertação apresenta o desenvolvimento de um medidor de componentes passivos RLC. Este medidor baseia-se num protótipo desenvolvido para possibilitar a medição da impedância de um dispositivo em teste. Tendo uma carta de aquisição de sinal como interface, o protótipo comunica com um computador que controla todo o processo de medição desde a aquisição e processamento de sinais ao cálculo e visualização dos parâmetros. A topologia de medição implementada é a da ponte auto-balanceada e no processamento recorre-se ao método da desmodulação síncrona ou coerente. A sua viabilidade é suportada por um estudo teórico prévio, pela discussão das opções tomadas no projecto e pelos resultados obtidos através do algoritmo desenvolvido utilizando o software LabVIEW de programação gráfica.
Análise dos métodos de medição dos parâmetros geométricos de via e correlação entre os dados obtidos
Resumo:
A razão atribuída à escolha do tema do T.F.M. em Caminhos-de-ferro, tem a ver com o facto de ser uma via de comunicação específica. Contrariamente ao que acontece na execução de auto-estradas, no caminho-de-ferro, a gestora da infra-estrutura responsabiliza-se pela execução, exploração (sinalização e controlo de circulação), abastecimento de energia fornecida às vias que dispõem de catenária (tracção eléctrica), manutenção e conservação da via. O processo de análise e inspecção de geometria de via, é usado quando e necessário preservar a infra-estrutura. Este processo iniciou-se nos caminhos-de-ferro portugueses, há muitos anos, depois da inauguração do primeiro troco de linha férrea. A primeira viagem ocorre em Outubro de 1856, sendo o início do processo em 1968, com a dresina “Matisa PV-6”. Em 1991 a C.P. adquiriu outro veículo de inspecção de via, tendo sido escolhido o VIV02 EM 120 da marca Plasser & Theurer, para substituir “Matisa PV-6”. O tema Análise dos Métodos de Medição dos Parâmetros Geométricos de Via e Correlação entre os Dados Obtidos está directamente relacionado com a manutenção e conservação de via. Na Unidade Operacional Sul (hoje ROS – Região Operacional Sul), local onde desenvolvi o T.F.M., não existem obras de construção de caminhos-de-ferro que pudesse acompanhar e constituir tema para o meu trabalho. Na realidade, com a falta de investimento que se perspectiva no futuro próximo, a manutenção da infra-estrutura passa a ser a actividade principal desenvolvida pela REFER, de modo a assegurar a comodidade, segurança e rapidez na deslocação de cargas e pessoas. A Analise Geométrica de Via e actualmente uma das principais actividades no âmbito da manutenção, que é feita por diagnóstico, contrariamente ao que acontecia no passado em que a conservação metódica era realizada num determinado ano num troço seleccionado independentemente da necessidade ou não da mesma. Uma ajuda preciosa, no que se refere à decisão de se realizar um determinado trabalho de conservação, e a do veículo VIV02 EM 120 que faz inspeções ao longo de toda a rede ferroviária e permite recolher dados e classificar através do desvio padrão, troços com extensão de 200 metros, obtendo os dados relevantes sobre a necessidade de intervenção. Para além do referido veículo existem também equipamentos ligeiros de inspecção dos parâmetros geométricos de via. Um desses equipamentos designa-se por Trólei, não sendo motorizado, pois o mesmo é movido manualmente por um operador. Obviamente que este equipamento não faz a inspecção a toda a rede pois a operação de medição é morosa, sendo contudo utilizado para análise de defeitos geométricos em pequenos trocos, tornando-se assim uma mais-valia, evitando o deslocar de um equipamento “pesado” como o VIV 02 EM 120. Para atingir os objectivos deste trabalho realizaram-se testes de medição com ambos (veiculo e equipamento ligeiro), no mesmo espaço temporal e com as mesmas características físicas, como a temperatura, humidade etc. Os resultados, de acordo com os objectivos, são a comparação entre as medições de ambos, com vista a comprovar a sua utilidade e necessidade, de acordo com os vários tipos de superstruturas constituintes da rede ferroviária nacional.
Resumo:
No futuro, o papel da televisão pública ver-se-á condicionado pelo processo acelerado de evolução que marca uma transição da forma dominante da televisão de fluxo à televisão de stock – algo que já acontece, aliás, nos nossos dias. O meio tem evoluído desde o seu nascimento, respondendo a uma tensão existente entre dois vectores de força, em cujos pólos encontramos, por um lado, a inovação tecnológica e, por outro, a regulação. O primeiro pólo está representado na linha temporal pelo movimento entre o deslumbramento da tecnologia analógica e o da tecnologia digital. O segundo marca o momento em que a televisão deixa de ser considerada um bem público (ideia dominante) e passa a ser vista como mais uma indústria. Os dois pólos têm mantido uma relação activa e de mútuo condicionamento. Pode-se dizer que a regra subjacente a esta dinâmica tem sido a seguinte: a um menor grau de inovação tecnológica corresponde uma maior regulação; um maior grau de inovação está associado a uma maior desregulação. Se concordamos que o nascimento da televisão corresponde ao grau zero de inovação (pese embora a própria invenção da mesma tenha constituído uma novidade espectacular), também é verdade que esse grau pressupunha o uso de uma tecnologia que possibilitava a transmissão à distância de som e imagens em movimento, sem necessidade de se dispor de um elo físico. Para tal, nesta fase de desenvolvimento tecnológico, era utilizada a modulação das ondas hertzianas, um bem escasso que permitia transmitir sem interferências um número limitado de canais.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
As tecnologias de informação representam um pilar fundamental nas organizações como sustento do negócio através de infraestruturas dedicadas sendo que com o evoluir do crescimento no centro de dados surgem desafios relativamente a escalabilidade, tolerância à falha, desempenho, alocação de recursos, segurança nos acessos, reposição de grandes quantidades de informação e eficiência energética. Com a adoção de tecnologias baseadas em cloud computing aplica-se um modelo de recursos partilhados de modo a consolidar a infraestrutura e endereçar os desafios anteriormente descritos. As tecnologias de virtualização têm como objetivo reduzir a infraestrutura levantando novas considerações ao nível das redes locais e de dados, segurança, backup e reposição da informação devido á dinâmica de um ambiente virtualizado. Em centros de dados esta abordagem pode representar um nível de consolidação elevado, permitindo reduzir servidores físicos, portas de rede, cablagem, armazenamento, espaço, energia e custo, assegurando os níveis de desempenho. Este trabalho permite definir uma estratégia de consolidação do centro de dados em estudo que permita a tolerância a falhas, provisionamento de novos serviços com tempo reduzido, escalabilidade para mais serviços, segurança nas redes Delimitarized Zone (DMZ), e backup e reposição de dados com impacto reduzido nos recursos, permitindo altos débitos e rácios de consolidação do armazenamento. A arquitetura proposta visa implementar a estratégia com tecnologias otimizadas para o cloud computing. Foi realizado um estudo tendo como base a análise de um centro de dados através da aplicação VMWare Capacity Planner que permitiu a análise do ambiente por um período de 8 meses com registo de métricas de acessos, utilizadas para dimensionar a arquitetura proposta. Na implementação da abordagem em cloud valida-se a redução de 85% de infraestrutura de servidores, a latência de comunicação, taxas de transferência de dados, latências de serviços, impacto de protocolos na transferência de dados, overhead da virtualização, migração de serviços na infraestrutura física, tempos de backup e restauro de informação e a segurança na DMZ.
Resumo:
Imagem pré-tratamento: TC, RM, PET-TC, imagens processadas (DRR, BEV, reconstrução multiplanar, volumétricas). Imagem tratamento: filme radiográfico, EPI, CBCT, CT-on-Rails, tomotherapy, cyberknife, Novallis, online video setup system.
Resumo:
O projeto aqui apresentado diz respeito à elaboração de uma estratégia de comunicação para o programa Doar o Corpo à Ciência. A falta de cadáveres para estudo e investigação científica compromete a qualidade da formação dos médicos, podendo daí advirem graves consequências para o diagnóstico e tratamento da saúde dos portugueses. O programa Doar o Corpo à Ciência ainda não está implementado e, para que passe a ser uma realidade, será necessário contar com o apoio das Faculdades de Medicina nacionais. Juntamente com os pacientes, são as Faculdades de Medicina quem mais beneficia com o aumento do registo de dadores do corpo à Ciência. A razão desta premissa, assenta na base de que o cadáver é o melhor livro de Anatomia que existe, uma unidade curricular basilar do curso de Mestrado Integrado em Medicina. Infelizmente, e salvo raras exceções, a “crise de cadáveres” nas escolas médicas está instalada, tendo-se apelado várias vezes à generosidade dos portugueses para o ato da doação. Contudo, o alcance da mensagem tem sido diminuto e os meios utilizados para o efeito acredito poderem ser outros. Este projecto propõe-se a contrariar esta tendência negativa, alertar para o problema que ela representa e facilitar o acesso à informação, assim como, facilitar a realização do ato. Para o efeito, recorre ao processo de Relações Públicas proposto por Cutlip, Center e Broom (1999), explorando de igual forma o conceito de estratégia e o de Health Communication (Comunicação em Saúde). Este último é uma área que tem vindo a ganhar cada vez mais notoriedade, essencialmente pelas necessidades de especialização nas sociedades atuais. É preciso comunicar com as pessoas, fazê-las entender os perigos que correm através da difusão de mensagens eficazes que incrementem os níveis de literacia em Saúde. Esta transmissão de conhecimento intenta dar o poder às pessoas, de forma a que elas próprias sejam capazes de tomar decisões informadas e conscientes.