999 resultados para Programação por objectos
Resumo:
A investigação de que resulta o presente trabalho foi desenvolvida em Teoria do texto - área de especialização em Linguística criada na FCSH - UNL pela Professora Luísa Opitz. Os contornos teóricos e epistemológicos da configuração disciplinar assim designada merecem naturalmente uma atenção particular. Pode dizer-se que os primeiros contributos, no sentido de uma abordagem linguística do texto, se devem aos vários trabalhos que, sobretudo na Holanda e na Alemanha, desde o início dos anos setenta, preconizavam o alargamento do quadro generativista para além do domínio da frase. A estes projectos de gramática de texto convém também associar. como se pode compreender, a noção de competência textual - enquanto sistema de regras susceptíveis de derivarem qualquer texto, numa determinada lingua natural. Veja-se o paralelismo da definição proposta por Petôfi (um dos autores em destaque, nesta perspectiva): Its direct aim [of the grammatical theory of verbal texts] is to describe the knowledge of the 'ideal native speaker/listener' concernmg the grammatical structuredness of verbal texts (i.e. his verbal grammatical competence). PETÔFI 1973:206 Quase em simultâneo com a convicção generativista, ou decorrendo de alguma insatisfacão que se ia instalando, outras tendências menos formalizantes se faziam também sentir. Pode destacar-se, em particular, o ponto de vista de P. Hartmann, no prefácio que assina para Studies in Text Grammar, editado por J.S. Petôfi e H. Rieser em 1973. Assinalando a mudança, em termos de interesses epistemológicos, associada ao facto de se tratar de objectos cuja descrição requer mais dimensões do que as contempladas por uma gramática de frase, Hartmann afirma: Se a nogão de texto aparece associada å de fungão (ou funções), uma e outra são fundamentalmente determinadas pela decisão relativa aos objectos sujeitos a observação - isto é, pelo facto de se tomarem em consideração os textos efectivamente produzidos em situações de comunicação, não sujeitos, portanto, a reduções metodológicas.
Resumo:
Uma das linhas de força que surge ao longo de toda a obra de Rui Nunes é, como facilmente se constata, uma experimentação constante sobre e na língua, ao ponto de esta se tornar um dos objectos da sua escrita. O nosso problema será tentar determinar essa experimentação e iremos defender que em Rui Nunes ela se dá sob a forma de um abandono da e na língua. Desta forma, numa primeira parte será o abandono o objecto e tentaremos determiná-lo a partir dos vários vectores que surgem na obra de Rui Nunes. Num segundo momento, tentaremos delinear um luto “originário” enquanto relação na e à língua que, apesar de se inserir ainda numa relação de abandono face à língua e à linguagem, abre para uma nova relação.
Resumo:
O presente relatório pretende ilustrar os resultados do estágio na área de programação artística desenvolvido no Teatro Municipal Maria Matos, em Lisboa. Apresenta um enquadramento desta organização e uma reflexão crítica e teórica sobre o conceito de curadoria de artes performativas, especificamente, no que diz respeito ás práticas para estruturar um programa temático no teatro municipal enquanto centro de exibição, produção e divulgação das artes performativas. O relatório articula três partes. Na primeira parte, aborda-‐se uma aproximação institucional e a descrição das tarefas da área de programação no Teatro Maria Matos. Na segunda parte, apresentam-‐se conceptualmente as questões da programação temática Gender Trouble -‐ performance, performatividade e política de género, as relações com a arte contemporânea e a história de arte. E, finalmente, na terceira apresentam-‐se algumas observações sobre a estrutura de programação e produção de Gender Trouble, no âmbito da rede internacional House on Fire, em colaboração com parceiros internacionais, tornando-‐se esta linha programática um convite para uma reflexão sobre a genealogia do conceito “performatividade de género” que espelha reflexões teóricas e práticas artísticas, académicas e ativistas.
Resumo:
A televisão do século xx e da primeira década do século XXI não foi uma televisão do espectador. A neotelevisão veio acabar com a ligação unidireccional que a paleotelevisão mantinha com o telespectador, criando uma maior proximidade devido às semelhanças com o quotidiano do individuo. O talk-show, o género televisivo mais popular na América nos anos 90, é frequentemente a principal companhia e fonte de informação para milhares de espectadores. O talk-show alia informação ao entretenimento através do talk, com entrevistas entre convidado e apresentador intercaladas por momentos de humor e música, o show. O sucesso de um talk-show é observável pela audiência registada, uma vez que as emissões são feitas de acordo com o perfil do público que assiste televisão nesse determinado período. Em Portugal, o entretenimento representado pela ficção e pelos programas recreativos, ocupa uma grande parte da grelha de programação da televisão generalista. Na RTP, vários foram os talk-shows que serviram de modelo para outros programas pela forma peculiar e inovadora com que se apresentaram, como é o caso do Praça da Alegria. Em 2014, a renovação das manhãs da RTP foi assinalada pela estreia do Agora Nós, um talk-show com incidência nas histórias de vida do cidadão comum. Estas histórias tornam-se exemplos de vida para os espectadores, aproximando-os e identificando-os com o programa. O Agora Nós está inserido num canal de serviço público e, portanto, deve assegurar conteúdos variados, de referência e qualidade, com valorização cultural, económica e educacional que corresponda às necessidades e interesses do público.
Resumo:
O presente relatório de estágio enquadra-se no método de avaliação final do Mestrado em Novos Media e Práticas Web, da Faculdade de Ciências Sociais e Humanas da Universidade Nova de Lisboa e pretende abordar o trabalho desenvolvido por mim durante o estágio curricular realizado na agência de comunicação e publicidade Ogilvy. O estágio decorreu entre novembro de 2014 e fevereiro de 2015, durante o qual desempenhei o cargo de online producer e fui supervisionada por Sara Cabral Fonseca, diretora de projeto. Todos os trabalhos tiveram como objetivo principal o acompanhamento e conhecimento do processo ligado ao desenvolvimento de projetos digitais, desde o briefing até à programação e conteúdo. Os trabalhos compreenderam a realização de testes de usabilidade em deskop e mobile dos sites e aplicações desenvolvidos pelo departamento digital da empresa, e também o apoio na realização de tarefas ligadas à gestão de conteúdos de vários websites. Este relatório resulta de todo o trabalho concretizado e pretende efetuar uma contextualização teórica ligada à importância dos testes de usabilidade e do Responsive Web Design (RWD) na implementação de projetos digitais.
Resumo:
Este trabalho procura verificar qual aplicação dos SIM - Sistemas de Informação de Marketing e do Geomarketing (através do recurso aos Sistemas de Informação Geográfica) nos vários níveis estratégicos em organizações no Brasil, mais precisamente na cidade de São Paulo. Outro objectivo é descortinar quais as principais vantagens reconhecidas pelas organizações no que toca à utilização do Geomarketing para apoio à tomada de decisão. São apresentadas várias definições para proporcionar um claro entendimento do tema, e destacam-se as seis actividades que segundo a literatura consultada concentram a maioria das aplicações do Geomarketing: segmentação do mercado, análise do potencial do mercado, organização e avaliação da força de vendas, localização do negócio, roteirização e programação de veículos, e, promoção de marketing. Em cada uma das actividades citadas, é feita referência a um case brasileiro para que o leitor possa familiarizar-se com o panorama deste país no que concerne à utilização do Geomarketing. Para alcançar os referidos objectivos, além de uma cuidada revisão bibliográfica, foi também desenhada uma pesquisa qualitativa que levou em conta o Modelo Conceitual de Goñi (2008) que integra os SIM - Sistemas de Informação de Marketing e os vários níveis estratégicos e apresenta as suas diferentes aplicações em cada um desses níveis: operacional, táctico e estratégico. O referido modelo foi já aplicado no México em 30 empresas de grande e médio porte, pelo que se buscou replicar essa pesquisa no Brasil, através de entrevistas em profundidade, numa amostra de 10 organizações de grande porte pertencentes a dois segmentos distintos (Segmento Comércio e Segmento Educação). Este estudo revelou que, tal como nas empresas mexicanas, os gestores e CEOs brasileiros, utilizam e reconhecem a importância dos Sistemas de Informação de Marketing, aos quais recorrem, na maioria das vezes, em todos os níveis estratégicos. O grau de utilização dos vários tipos de informações de marketing elencados no Modelo Conceitual de Goñi (49 tipos de informação de marketing diferentes) é superior nas organizações brasileiras pois a maioria afirmou recorrer à sua totalidade. Estas informações podem também ser fornecidas por vários SIM e utilizadas em vários níveis estratégicos, não existindo uma regra relativamente ao sistema de output da informação, ou layer estratégica em que é utilizada. O Segmento Comércio, composto essencialmente por empresas do ramo supermercadista recorre ao Geomarketing em 60% das actividades pesquisadas, já o Segmento Educação, composto por instituições de ensino superior, utiliza o Geomarketing em 49% das suas acções. Ambos os segmentos identificaram diversas iv vantagens na prática do Geomarketing como a possibilidade de cruzamento de várias variáveis em simultâneo, a disposição dessa informação em mapas ou o carácter intuitivo das interfaces gráficas dos softwares SIG. Tudo isso permite encontrar padrões nos dados que de outra forma não seriam facilmente identificados, uma maior rapidez e facilidade na análise dos dados, melhor percepção da informação, possibilidade de criação de novos indicadores, entre outros. Estas vantagens resultam numa tomada de decisão mais rápida e assertiva.
Resumo:
Controlar a navegação de uma embarcação, neste caso de um veleiro, pode ser fácil quando controlada por um humano. Mas, quando falamos em embarcação autónoma, existem algumas dificuldades relativas à programação da rota a que a embarcação deve seguir. Nesta dissertação foram feitas diversas análises referentes às técnicas de velejar, bem como a caracterização de um controlador utilizando lógica difusa, com a colaboração de sensores e atuadores. Para este estudo foi necessário equipar um veleiro com diversos sensores, atuadores e controladores. Por fim, foram realizados testes e análises que possibilitaram o aperfeiçoamento das técnicas de controlo. O objetivo é transformar um veleiro telecomandado num capaz de navegar autonomamente, por forma a ser introduzido posteriormente num de maior escala.
Resumo:
A espectroscopia de fotoelectrões de raios-X (XPS - X-ray Photoelectron Spectroscopy)é uma das técnicas de análise de superfícies mais importantes e mais usadas em diversasáreas científico-tecnológicas e industriais. Com ela é possível determinar quantitativa equalitativamente a composição elementar e a composição química aproximada, respectivamente,e estrutura electrónica dos elementos presentes para diferentes tipos de materiais. O laboratório de ciência de superfícies do Departamento de Física da FCT-UNL encontra-se equipado com um sistema de ultra-alto vácuo Kratos XSAM 800 contendo a instrumentação necessária para se realizar XPS. No entanto, o equipamento precisava de uma requalificação. O controlo e aquisição de dados do espectrómetro era feito por um computador PDP11 de 16-bits que actualmente não é comercializado e não tem qualquer suporte técnico por parte do fabricante. Foi substituído por um computador moderno e por uma placa genérica de aquisição de dados. Para que a análise quantitativa pela técnica de XPS seja precisa, é necesssário fazer a caracterização do sistema. Isso implica o conhecimento de parâmetros como a função de transmissão do espectrómetro e a linearidade da resposta do sistema de detecção. Foi feito um estudo da linearidade da resposta do sistema de detecção e determinou-se experimentalmente a função de transmissão do espectrómetro. Os resultados obtidos para a função de transmissão mostraram estar qualitativamente de acordo com os resultados obtidos por outros na literatura. A transmissão da coluna óptica do analisador de energia de electrões foi posteriormente submetida a um processo de optimização, através da implementação de um algoritmo evolutivo diferencial para optimização de funções, recorrendo a linguagem de programação gráfica LabVIEWTM.
Resumo:
Centrada na análise do arquivo pessoal de Luís Duarte Pádua Ramos (1931-2005), a presente dissertação tem como objectivo conhecer a sua faceta de coleccionador, compreendendo as especificidades do seu coleccionismo e o modo como construiu e conviveu com a sua colecção. O coleccionismo, iniciado nos tempos em que estuda arquitectura na Escola Superior de Belas-Artes do Porto, tem um papel preponderante na vida de Pádua Ramos. Isto é visível a julgar pelo tempo que dedica ao seu hobby, pela relação afectiva que tem com as suas peças, pelas soluções que vai criando em sua casa para as expor, pelos condicionalismos que a própria colecção impõe à família, pela forma como se expressa sobre o seu “vício equilibrado”. Pádua Ramos reuniu apaixonadamente uma colecção eclética e polinucleada compreendendo – maioritariamente – objectos de artes decorativas, que se inscrevem numa linha temporal extensa: do século XV à década de 90 do século XX. O coleccionador preocupou-se com a documentação da sua colecção – consciente de que a informação associada aos objectos contribuía para a valorização dos mesmos. Esta consciência traduziu-se numa série de cuidados e tentativas do coleccionador para ter um corpus documental consistente e completo sobre a sua colecção. A riqueza da documentação guardada é fruto também da presença da colecção na esfera pública. Para além da participação em exposições, Pádua Ramos facilitou a investigadores e jornalistas o acesso à sua colecção, resultando daí várias referências em publicações especializadas e, sobretudo, na imprensa escrita. O protagonismo da colecção, muito notório nos anos 90, é um factor que contribui para que Pádua Ramos tivesse idealizado um museu de artes decorativas e um museu de arte popular. O primeiro nunca avançou; o segundo concretizou-se num projecto designado Casa da Cultura de Fão, mas a doação ao município de Esposende acabou por não se efectivar.
Resumo:
Com o passar do tempo, a aposta em energias renováveis tem vindo a aumentar. De forma a prever o que se irá produzir com os sistemas de energias renováveis, é necessário desenvolver modelos preditivos, específicos para cada situação. No Departamento de Engenharia Electrotécnica (DEE) da Faculdade de Ciências e Tecnologia (FCT) encontra-se um sistema fotovoltaico e um sistema eólico em funcionamento, e assim de forma a ter uma estimativa da produção de energia de ambos os sistemas, propôs-se nesta dissertação desenvolver um modelo de previsão de produção de energia eléctrica para os sistemas fotovoltaico e eólico. Para desenvolver o modelo preditivo pretendido, em primeiro lugar recolheram-se os dados meteorológicos e de produção de energia no ano 2013 e realizou-se um processamento desses mesmos dados, com a linguagem de programação Java, uma vez que não se encontravam na melhor forma para serem analisados e utilizados para construção do modelo. Após realizado o processamento, como os dados do ano de 2014 existentes não eram suficientes para testar o modelo depois de ser desenvolvido, geraram-se dados meteorológicos para 2014 tendo em consideração os dados de 2013. Para os dados de energia produzida, criaram-se superfícies de aproximação a partir dos dados de 2013, e utilizando os dados meteorológicos gerados para 2014 obteve-se uma aproximação da energia produzida. Tendo todos os dados necessários para a construção do modelo e posteriormente para o testar, iniciouse o pré-processamento dos dados com recurso a filtros e à Análise em Componentes Principais. Por fim, construíram-se duas estruturas diferentes de Redes Neuronais Artificiais de modo a verificar qual se adequa melhor aos sistemas existentes. Para validar o modelo construído com base em redes neuronais testou-se o modelo com os dados de 2014, diferentes dos utilizados na sua construção. Com os resultados obtidos concluiu-se que o filtro mais adequado para o pré-processamento é o filtro Savitzky-Golay e a estrutura do modelo mais indicada para o pretendido será a Rede Neuronal Artificial (RNA) com apenas uma camada intermédia.
Resumo:
Actualmente, os meios de produção industrial estão em constante desenvolvimento, de forma a corresponderem a um mercado cada vez mais globalizado, caracterizado por uma forte competição, uma pressão na redução de custos, e a existência de produtos e serviços personalizados. Entretanto, ao nível de equipamento de robótica, também se tem notado esta pressão por parte do mercado, exigindo-se equipamento com uma complexidade crescente, tanto ao nível da sua morfologia, do seu controlo e da sua utilização. Ao nível da sua utilização, tornou-se então necessário adoptar abordagens que permitam um maior controlo quanto a falhas de manuseamento e respectiva modelação destes robôs. Uma destas abordagens é a simulação. A simulação é uma das áreas com maior crescimento a nível tecnológico, sendo utilizada em várias áreas de tecnologia e informação devido à sua capacidade de adaptação, tornando-se numa área bastante dinâmica e flexível. Dentro dum contexto de robôs industriais, as aplicações mais típicas consistem na programação “offline” de robôs e na aprendizagem de robótica, tendo como objectivo estudar e analisar os comportamentos de determinados sistemas, com o intuito de reduzir a necessidade de intervenção humana em tarefas repetitivas, perigosas e dispendiosas. Além disso, a simulação está também presente na computação informática nas salas de aulas, por forma a auxiliar o professor. Foi então idealizado um sistema de simulação capaz de imitar um robô industrial em que os alunos terão que conseguir controlar, para que os vários testes sejam primeiramente implementados no simulador, diminuindo assim, o risco de causar acidentes no seu congênere real durante a fase de testes. O sistema consiste numa interface em que possibilita ao utilizador fazer um controlo manual do robô simulado, assim como ser capaz de o controlar por comandos requisitados por uma aplicação exterior através de serviços WEB, permitindo assim, a simulação de vários testes no robô industrial em causa.
Resumo:
A abertura ao público do Museu Calouste Gulbenkian, em Outubro de 1969, resultou de um longo processo de programação, iniciado em Julho de 1956, alicerçado no trabalho continuado de uma equipa fixa, informado pelo contributo inestimável de um numeroso conjunto de consultores permanentes e de consultores pontuais. O presente artigo resulta da investigação desenvolvida no âmbito da nossa dissertação de mestrado em Museologia e Património, no qual, com base na análise de um conjunto de documentos de programação do Museu Calouste Gulbenkian, procurámos identificar os contributos de Maria José de Mendonça e de Georges-Henri Rivière para a génese da exposição permanente daquele Museu. Georges-Henri Rivière, então director do ICOM, foi, a partir de 1958, consultor permanente da Fundação Calouste Gulbenkian, na área da museologia. Para este breve artigo recuperámos, daquele estudo académico, um conjunto de propostas de programação para o Museu Calouste Gulbenkian patentes em cinco relatórios de consultoria (três deles inéditos) assinados por Rivière. Sabemos hoje, que umas não passariam para a programação definitiva do edifício do Museu, enquanto outras constituíram contributos directos dessa personalidade maior da museologia do século XX, marcando, na sua génese, a programação da exposição das galerias públicas do Museu.
Resumo:
A exposição é uma tarefa eminentemente museológica mas, desde sempre, desenvolveu uma espécie de autonomia propositiva, relacionada quer com uma celebração festiva, vocacionada para os grandes públicos (por exemplo, as grandes exposições mundiais, inauguradas em Londres, em 1851), quer com a divulgação de investigações específicas, predominantemente originais. Neste caso, podemos designá-las ‘exposições de investigação’. Este foi o âmbito de: 50 anos de arte portuguesa, apresentada na Fundação Calouste Gulbenkian, em 2007, e Anos 70. Atravessar fronteiras, apresentada no Centro de Arte Moderna da mesma Fundação, em 2009. Na reflexão que se segue, adoptei privilegiar a narrativa do processo do trabalho, fruto de experiência adquirida empiricamente e das dinâmicas criadas nas equipas pluridisciplinares que conduziram os projectos à sua realização.
Resumo:
De 14 de Março a 31 de Maio o Museu de Arte Moderna de Nova Iorque (MoMA) apresentou, pela primeira vez, uma exposição individual retrospectiva dedicada exclusivamente à arte da performance intitulada Marina Abramovic: The Artist is Present. A artista está presente, é também o título da obra criada especialmente para a exposição, que envolveu a presença permanente de Abramović no átrio do museu, sendo os visitantes “convidados a sentar-se em silêncio com a artista durante o tempo que entenderem”. Inédita na ambição de expor quase quarenta anos de performance da artista, a exposição utilizou estratégias expositivas menos convencionais que integraram a reperformancede cinco obras emblemáticas lado a lado com a documentação tradicionalmente utilizada: fotografias, vídeos, objectos. A nova performance, poderosa na sua extrema simplicidade, mereceu surpreendente adesão do público que acorreu a participar. O acontecimento despoletou imediatas críticas, comentários, testemunhos que circularam em sites institucionais, blogs pessoais e redes sociais, produzindo um cenário de recepção também ele inédito pela diversidade e quantidade de públicos envolvidos. As notas que se apresentam, produzidas em cima do acontecimento, tentam reflectir essas realidades enquadrando-as na reflexão e debate crítico em curso em torno das questões colocadas pela preservação, e reapresentação da arte da performance a que a exposição no MoMA veio dar nova dimensão e urgência.
Resumo:
No que diz respeito à sua preservação e apresentação grande parte da arte contemporânea exige respostas eficazes e pragmáticas do ponto de vista da museologia. Esta situação torna-se mais evidente em obras de instalação e media art, que recorrem a múltiplos objectos, mantêm uma relação com o espaço e são alvo de fenómenos de obsolescência tecnológica, reclamando assim, estratégias que passam pela produção activa de registos documentais, a fim de garantir o seu legado a gerações futuras. A partir da obra de Alberto Carneiro "Árvore jogo / lúdico em 7 imagens espelhadas", que foi pela primeira vez materializada na Galeria Quadrum, em Lisboa, em 1975, e destruída no ano seguinte pelo autor, após a Bienal de Veneza, discutimos as estratégias documentais mais adequadas. A metodologia assenta num trabalho de base antropológica, através de entrevistas com o artista, que permitam identificar todos os aspectos relacionados com o processo criativo e criar um manual de instalação, que se pretende de fácil acesso a investigadores, conservadores e até ao público em geral. Para este efeito iniciou-se um trabalho de colaboração com o Departamento de Informática da FCT-UNL com vista à construção de uma ferramenta multimédia que permita reunir num só local toda a informação relativa à obra.