59 resultados para Processo de recuperação da informação

em Instituto Politécnico do Porto, Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Orientação: Doutora Maria Alexandra Pacheco Ribeiro da Costa

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Esta dissertação apresenta uma proposta de sistema capaz de preencher a lacuna entre documentos legislativos em formato PDF e documentos legislativos em formato aberto. O objetivo principal é mapear o conhecimento presente nesses documentos de maneira a representar essa coleção como informação interligada. O sistema é composto por vários componentes responsáveis pela execução de três fases propostas: extração de dados, organização de conhecimento, acesso à informação. A primeira fase propõe uma abordagem à extração de estrutura, texto e entidades de documentos PDF de maneira a obter a informação desejada, de acordo com a parametrização do utilizador. Esta abordagem usa dois métodos de extração diferentes, de acordo com as duas fases de processamento de documentos – análise de documento e compreensão de documento. O critério utilizado para agrupar objetos de texto é a fonte usada nos objetos de texto de acordo com a sua definição no código de fonte (Content Stream) do PDF. A abordagem está dividida em três partes: análise de documento, compreensão de documento e conjunção. A primeira parte da abordagem trata da extração de segmentos de texto, adotando uma abordagem geométrica. O resultado é uma lista de linhas do texto do documento; a segunda parte trata de agrupar os objetos de texto de acordo com o critério estipulado, produzindo um documento XML com o resultado dessa extração; a terceira e última fase junta os resultados das duas fases anteriores e aplica regras estruturais e lógicas no sentido de obter o documento XML final. A segunda fase propõe uma ontologia no domínio legal capaz de organizar a informação extraída pelo processo de extração da primeira fase. Também é responsável pelo processo de indexação do texto dos documentos. A ontologia proposta apresenta três características: pequena, interoperável e partilhável. A primeira característica está relacionada com o facto da ontologia não estar focada na descrição pormenorizada dos conceitos presentes, propondo uma descrição mais abstrata das entidades presentes; a segunda característica é incorporada devido à necessidade de interoperabilidade com outras ontologias do domínio legal, mas também com as ontologias padrão que são utilizadas geralmente; a terceira característica é definida no sentido de permitir que o conhecimento traduzido, segundo a ontologia proposta, seja independente de vários fatores, tais como o país, a língua ou a jurisdição. A terceira fase corresponde a uma resposta à questão do acesso e reutilização do conhecimento por utilizadores externos ao sistema através do desenvolvimento dum Web Service. Este componente permite o acesso à informação através da disponibilização de um grupo de recursos disponíveis a atores externos que desejem aceder à informação. O Web Service desenvolvido utiliza a arquitetura REST. Uma aplicação móvel Android também foi desenvolvida de maneira a providenciar visualizações dos pedidos de informação. O resultado final é então o desenvolvimento de um sistema capaz de transformar coleções de documentos em formato PDF para coleções em formato aberto de maneira a permitir o acesso e reutilização por outros utilizadores. Este sistema responde diretamente às questões da comunidade de dados abertos e de Governos, que possuem muitas coleções deste tipo, para as quais não existe a capacidade de raciocinar sobre a informação contida, e transformá-la em dados que os cidadãos e os profissionais possam visualizar e utilizar.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho teve como objectivo a avaliação da actual situação da indústria corticeira, o levantamento de eventuais possibilidades de inovação e o estudo de um caso promissor. Como caso promissor, decidiu-se estudar o efeito da pirólise nos resíduos de cortiça. A análise da situação actual da indústria corticeira aponta para a procura de novos produtos no sentido de alargar o mercado e promover um melhor escoamento deste recurso natural. Apesar de todos os esforços efectuados até ao momento, verifica-se que a indústria vinícola continua a ser o principal mercado da cortiça. O avanço da tecnologia tem permitido o desenvolvimento de novos produtos, alguns ainda em fase de desenvolvimento, e aponta para um potencial de inovação a vários níveis: ao nível do processo de transformação, no sentido da sua optimização; ao nível do desenvolvimento de novos produtos dado o potencial já demonstrado pela cortiça em desenvolvimentos recentes; ao nível da valorização de resíduos como, por exemplo, a consolidação de processo de recuperação de taninos da água de cozedura, a obtenção de suberina e poliois do pó e aparas de cortiça e a pirólise das aparas e pó de cortiça. Como estudo de caso, efectuou-se o estudo do efeito da pirólise em resíduos de cortiça natural, para se poder conhecer as características dos produtos obtidos bem como as condições óptimas de operação. Neste fase inicial e optou-se por se analisar as propriedades parte sólida de modo a saber as alterações sofridas durante a pirólise e estas podem apresentar uma mais-valia para o mercado corticeiro. Para efectuar o respectivo trabalho, recorreu-se a um forno pirolítico horizontal tipo Splitz e utilizou-se cortiça natural com granulometria entre 2,88 e 4,00mm. A pirólise foi realizada entre a gama de temperaturas de 400 e 900ºC e para duas rampas de aquecimento de 5ºC/min e 10ºC/min. O estudo experimental revela que na gama de temperaturas entre os 600 e 800ºC é onde a carbonização do resíduo está completa, sendo para essa mesma gama de temperaturas que se verifica, no resíduo carbonoso, um maior teor de carbono. Relativamente às rampas de aquecimento estas não apresentam efeitos significativos nas massas e teores de carbono no resíduo carbonoso final. Verificouse também, que o teor de hidrogénio diminui com o aumento da temperatura. Conclui-se que a pirólise consegue degradar os resíduos de cortiça levando à libertação de compostos que poderão ser uma mais-valia.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O hotel, para muitos autores, tem como função oferecer abrigo para quem está distante da sua casa e atender às suas necessidades básicas. A hotelaria tem como função básica alojar as pessoas que estão longe da sua residência e que precisam de um quarto com uma cama para dormir e uma casa de banho (Duarte, 1996). Para Beni (2003), um hotel, além de ter a função básica de alojar, tem uma característica que nenhum outro estabelecimento comercial possui, que é o facto de o consumidor se deslocar até ao hotel para poder utilizar os serviços disponíveis. Outra característica muito especifica da atividade hoteleira, é o facto de o atendimento ser o mais importante na hora da prestação do serviço. O Hostel é uma designação muito usada atualmente como sinónimo de albergue. É um tipo de unidade hoteleira que se caracteriza pelos preços convidativos e pela possibilidade de socialização dos hóspedes, onde cada hóspede pode arrendar uma cama ou beliche, num dormitório partilhado, com casa de banho, lavandaria e, por vezes, cozinha, também em regime partilhado. Os Hostels são geralmente económicos praticando preços intitulados low-­‐cost. Definir uma estratégia para a Internet é hoje um imperativo para qualquer organização que pretenda utilizar este canal de comunicação para promover a sua atividade. As unidades hoteleiras também não são exceção; a necessidade de comunicar com os públicos alvo no sentido de aumentarem a captação de turistas exige uma presença na Internet que consiga simultaneamente informar e motivar à escolha pelos serviços prestados. A Internet evidencia um incontornável potencial informativo e comunicativo em questões de rapidez de circulação: número de pessoas que atinge e áreas geográficas que abarca; e devido às suas características de imaterialidade, instantaneidade e multimédia, democratiza o acesso à informação e a determinados tipos de bens, facilita a comunicação entre pessoas e instituições e universaliza as oportunidades, eliminando as barreiras espaciais, geográficas e temporais (Balsa, 2007). Rapidamente as unidades hoteleiras se aperceberam das vantagens e potencialidades da Internet: rápida, imediata, económica, integrada no dia-­‐a-­‐dia de trabalho e lazer e acessível a um cada vez maior número de pessoas. A nível geral, mas com especial incidência no caso das unidades hoteleiras, a Internet apresenta inúmeras vantagens ao nível da estruturação da informação em bases de dados e da sua apresentação dinâmica, tirando partido da inclusão de objetos multimédia em páginas HTML. Os objetos multimédia podem incluir áudio, vídeo,animações em tecnologia Flash e mesmo animações 3D tornando a visita a um sítio Web com este tipo de conteúdos, uma experiência muito gratificante. Por sua vez, a interatividade, característica do próprio funcionamento das páginas Web, facilita a interação entre a unidade hoteleira e o visitante. A interatividade permite ou facilita uma relação ativa entre o utilizador e o hotel. O utilizador passa de espectador passivo a interveniente ativo no processo de consulta da informação. Na web, os avanços tecnológicos têm sido constantes. Em 1980, Alvin Toffler’s no seu bestseller ‘The Third Wave’ previu um novo tipo de consumidor a quem chamou de ‘prosumer’ e que seria um misto de DIY (do-­it-­yourself) produtor e consumidor em mercados offline (Toffler, 1980). Foi sem dúvida de uma grande visão, mas sem os recentes avanços na web e nas tecnologias digitais, a maioria dos utilizadores não poderia ter dado o salto de espectador passivo para ator que participa ativamente na construção da web (Shuen, 2008). O aparecimento das redes sociais que permitem criar comunidades com interesses afins, o desenvolvimento de plataformas como o Youtube.com para a partilha dedeos, a vulgarização de plataformas como o flickr.com para a partilha de imagens constituíram marcos determinantes para aquilo a que se designa por WEB 2.0 (tecnologia do século XXI). Enquanto no tempo da WEB 1.0 (tecnologia dos anos 90) os sites eram essencialmente estáticos e a interatividade não era levada aos limites, agora com a WEB 2.0 é possível construir modelos de negócio com conteúdos mais ricos simulando, com muito maior realismo, em ambientes virtuais, o que se passa em ambientes reais. Os sítios Web das unidades hoteleiras estão a evoluir rapidamente para um modelo que contemple as potencialidades da WEB 2.0 Tendo em consideração a importância das unidades hoteleiras no panorama do turismo, a relevância da Internet como meio de comunicação entre as instituições e os cidadãos e a necessidade das unidades hoteleiras disporem de uma estratégia de comunicação digital para difundir as suas valências e atividades, entendemos justificar-­se fazer uma revisão da literatura onde: procuraremos compreender a importância do turismo na sociedade atual assim como, o impacto das novas tecnologias da informação em atividades relacionadas com o turismo e ainda, procuraremos perceber quais os canais de comunicação digital que estão ao dispor dos profissionais de turismo, nomeadamente os gestores de unidades hoteleiras, para promover os seus serviços. O objetivo principal deste trabalho consiste em mostrar como foi desenvolvido uma estratégia de comunicação digital para promover online uma unidade hoteleira low cost, no caso presente o Oporto Invictus Hostel. Trata­‐se de um projeto integrado em que não só se criaram as diferentes peças de comunicação como se definiu e aplicou uma estratégia promocional com vista à divulgação do Hostel. O projeto apresentado evidencia como é possível, com recursos limitados, criar um sistema integrado de comunicação digital online que promova uma pequena unidade hoteleira, de forma a dar-­‐lhe visibilidade tanto a nível nacional como internacional. O projeto está dividido em cinco partes. Numa primeira parte é feita a apresentação do briefing que resultou de uma primeira reunião com o cliente. Numa segunda parte apresenta­‐se a fase de planeamento relativa ao desenvolvimento do projeto. Numa terceira parte descreve-­se o processo de implementação do projeto. Na quarta fase abordam-se os testes funcionais e na quinta e última fase faz-­se referencia a aspetos relacionados com a conclusão do projeto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O surgir da World Wide Web providenciou aos utilizadores uma série de oportunidades no que diz respeito ao acesso a dados e informação. Este acesso tornou-se um ato banal para qualquer utilizador da Web, tanto pelo utilizador comum como por outros mais experientes, tanto para obter informações básicas, como outras informações mais complexas. Todo este avanço tecnológico permitiu que os utilizadores tivessem acesso a uma vasta quantidade de informação, dispersa pelo globo, não tendo, na maior parte das vezes, a informação qualquer tipo de ligação entre si. A necessidade de se obter informação de interesse relativamente a determinado tema, mas tendo que recorrer a diversas fontes para obter toda a informação que pretende obter e comparar, torna-se um processo moroso para o utilizador. Pretende-se que este processo de recolha de informação de páginas web seja o mais automatizado possível, dando ao utilizador a possibilidade de utilizar algoritmos e ferramentas de análise e processamento automáticas, reduzindo desta forma o tempo e esforço de realização de tarefas sobre páginas web. Este processo é denominado Web Scraping. Neste trabalho é descrita uma arquitetura de sistema de web scraping automático e configurável baseado em tecnologias existentes, nomeadamente no contexto da web semântica. Para tal o trabalho desenvolvido analisa os efeitos da aplicação do Web Scraping percorrendo os seguintes pontos: • Identificação e análise de diversas ferramentas de web scraping; • Identificação do processo desenvolvido pelo ser humano complementar às atuais ferramentas de web scraping; • Design duma arquitetura complementar às ferramentas de web scraping que dê apoio ao processo de web scraping do utilizador; • Desenvolvimento dum protótipo baseado em ferramentas e tecnologias existentes; • Realização de experiências no domínio de aplicação de páginas de super-mercados portugueses; • Analisar resultados obtidos a partir destas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A antropologia forense é uma disciplina das ciências forenses que trata da análise de restos cadavéricos humanos para fins legais. Uma das suas aplicações mais populares é a identificação forense que consiste em determinar o perfil biológico (idade, sexo, ancestralidade e estatura) de um indivíduo. No entanto, este processo muitas vezes é dificultado quando o corpo se encontra em avançado estado de decomposição apenas existindo restos esqueléticos. Neste caso, áreas médicas comummente utilizadas na identificação de cadáveres, como a patologia, tem de ser descartadas e surge a necessidade de aplicar outras técnicas. Neste contexto, muitos métodos antropométricos são propostos de forma a caracterizar uma pessoa através do seu esqueleto. Contudo, constata-se que a maioria dos procedimentos sugeridos é baseada em equipamentos básicos de medição, não usufruindo da tecnologia contemporânea. Assim, em parceria com a Delegação Norte do NMLCF, I. P., esta Tese teve na sua génese a criação de um sistema computacional baseado em imagens de Tomografia Computorizada (TC) de ossadas que, através de ferramentas open source, permita a realização de identificação forense. O trabalho apresentado baseia-se no processo de gestão de informação, aquisição, processamento e visualização de imagens TC. No decorrer da realização da presente Tese foi desenvolvida uma base de dados que permite organizar a informação de cada ossada e foram implementados algoritmos que levam a uma extracção de características muito mais vasta que a efetuada manualmente com os equipamentos de medição clássicos. O resultado final deste estudo consistiu num conjunto de técnicas que poderão ser englobadas num sistema computacional de identificação forense e deste modo criar uma aplicação com vantagens tecnológicas evidentes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A composição musical é um tema de muito interesse para a computação evolucionária dentro da área da inteligência artificial. É uma área que tem sofrido vários desenvolvimentos ao longo dos últimos anos pois o interesse em que hajam computadores que façam obras musicais é deveras aliciante. Este trabalho tem por objectivo realizar mais um passo nesse sentido. Assim, foi desenvolvida uma aplicação informática que realiza composições musicais de dois géneros distintos: Músicas Infantis e Músicas Blues. A aplicação foi implementada com recurso aos Algoritmos Genéticos, que são os algoritmos evolucionários mais populares da área da computação evolucionária. O trabalho foi estruturado em duas fases de desenvolvimento. Na primeira fase, realizou-se um levantamento estatístico sobre as características específicas de cada um dos géneros musicais. Analisaram-se quinze músicas de cada género musical, com o intuito de se chegar a uma proporção do uso que cada nota tem em cada um dos casos. Na segunda fase, desenvolveu-se o software que compõe as músicas com implementação de um algoritmo genético. Além disso, foi também desenvolvida uma interface gráfica que permite ao utilizador a escolha do género musical que pretende compor. O algoritmo genético começa por gerar uma população inicial de potenciais soluções de acordo com a escolha do utilizador, realizando, de seguida, o ciclo que caracteriza o algoritmo genético. A população inicial é constituída por soluções que seguem as regras que foram implementadas de acordo com os dados recolhidos ao longo da primeira fase. Foi também implementada uma interface de avaliação, através da qual, o utilizador pode ouvir cada uma das músicas para posterior avaliação em termos de fitness. O estado de evolução do algoritmo é apresentado, numa segunda interface, a qual facilita a clareza e justiça na avaliação ao longo de todo o processo. Esta última apresenta informação sobre a média das fitness da geração anterior e actual, sendo assim possível ter uma noção da evolução do algoritmo, no sentido de se obterem resultados satisfatórios no que diz respeito às composições musicais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho incide sobre a gestão do conhecimento e cultura organizacional, as suas barreiras os seus facilitadores na Parque Escolar E.P.E. Este estudo teve por base o método quadripolar. Várias foram as atividades ao longo deste trabalho, inicialmente foi recolhida a documentação interna, nomeadamente diplomas legais, regulamentos, manuais de procedimentos, manuais de formações internas, entre outros documentos, que serviram de base ao reconhecimento da instituição, a sua evolução estrutural e de funcionamento. Para identificar as barreiras e os facilitadores na recuperação da informação nos três principais meios para o efeito: arquivo físico, file system e aplicações informáticas foram aplicados inquéritos aos produtores/ utilizadores de informação da Parque Escolar, E.P.E. Com base neste estudo foi possível identificar qual o recurso de recuperação de informação que traz mais dificuldades na sua utilização, se existem documentos exclusivos em papel ou exclusivos em formato digital, se os mesmos são recuperáveis com facilidade. Foi possível averiguar se os colaboradores da Parque Escolar, E.P.E. consideram os documentos que constam no Arquivo Físico mais fidedignos do que os documentos em formato digital guardados no file system ou nas aplicações informáticas. Em relação às aplicações informáticas foi ainda possível averiguar se os colaboradores consideram uteis as suas atualizações, ou se demonstram alguma resistência à mudança, e se consideram que tiveram o acompanhamento necessário para compreender e aplicar as alterações. Com este estudo esperamos ter contribuído para dar uma maior visibilidade à temática da gestão do conhecimento e como a cultura organizacional pode influenciar, criando barreiras ou facilitadores.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Os sistemas de perceção visual são das principais fontes de informação sensorial utilizadas pelos robôs autónomos, para localização e navegação em diferentes meios de operação. O objetivo passa por obter uma grande quantidade de informação sobre o ambiente que a câmara está a visualizar, processar e extrair informação que permita realizar as tarefas de uma forma e ciente. Uma informação em particular que os sistemas de visão podem fornecer, e a informação tridimensional acerca do meio envolvente. Esta informação pode ser adquirida recorrendo a sistemas de visão monoculares ou com múltiplas câmaras. Nestes sistemas a informação tridimensional pode ser obtida recorrendo a técnica de triangulação, tirando partido do conhecimento da posição relativa entre as câmaras. No entanto, para calcular as coordenadas de um ponto tridimensional no referencial da câmara e necessário existir correspondência entre pontos comuns às imagens adquiridas pelo sistema. No caso de más correspondências a informação 3D e obtida de forma incorreta. O problema associado à correspondência de pontos pode ser agravado no caso das câmaras do sistema terem características intrínsecas diferentes nomeadamente: resolução, abertura da lente, distorção. Outros fatores como as orientações e posições das câmaras também podem condicionar a correspondência de pontos. Este trabalho incide sobre problemática de correspondência de pontos existente no processo de cálculo da informação tridimensional. A presente dissertação visa o desenvolvimento de uma abordagem de correspondência de pontos para sistemas de visão no qual é conhecida a posição relativa entre câmaras.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Para criar um sistema logístico que agrega todos os elementos da cadeia de valor e, principalmente minimize a contaminação dos alimentos, surge o conceito de rastreabilidade que vem responder a todos os requisitos legais exigidos, para que os problemas com a segurança alimentar sejam mitigados criando confiança ao consumidor nos produtos que adquira. O trabalho consistiu em avaliar os processos logísticos atuais, caracterizando falhas críticas operacionais, idealizar um sistema de informação e codificação que integre um sistema de rastreabilidade prático e funcional. Com o sistema, obteve-se uma melhoria significativa no processo de rastreabilidade dos produtos, através de um processo dinâmico que gera informação em todas as fases de preparação do produto e, permitindo assim conhecer o seu histórico, criando uma base de dados de toda a informação relativa ao produto e processos da empresa.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Gestão das Organizações, Ramo Gestão de Empresas Orientada por: Profª Doutora Maria Alexandra Pacheco Ribeiro da Costa Esta dissertação inclui as críticas e sugestões feitas pelo Júri.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

São descritos os princípios fundamentais da Declaração de Bolonha e algumas alterações que ela pressupõe. Evoca-se a história da formação dita BAD, em Portugal, destacando-se o aparecimento das primeiras licenciaturas nacionais, dentre as quais a de Ciências e Tecnologias da Documentação e Informação (CTDI) da Escola Superior de Estudos Industriais e de Gestão do Instituto Politécnico do Porto, demonstrando-se o modo como foi feita a adequação da referida licenciatura de CTDI, ao abrigo de Bolonha, e sublinhando-se, no novo modelo de ensinoaprendizagem, o protagonismo, a autonomia e a responsabilização dos alunos. Caracteriza-se a actual licenciatura multidisciplinar, de banda larga, referindo-se as competências que um licenciado deve adquirir, tendo em conta a necessidade do surgimento de um novo perfil para os actuais Profissionais da Informação.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A globalização, o desenvolvimento económico e o aumento da competitividade, possibilitaram um acréscimo do número de microempresas, originado o aumento do peso que estas detêm na economia. Estas absorvem a maioria da mão-de-obra do setor privado e criam parte significativa da riqueza de um país, no entanto, apresentam elevados índices de dissolução e liquidação, pondo em causa o desenvolvimento sustentável das economias onde estão sediadas. A informação contabilística é essencial em qualquer tipo de organização. Para as microempresas a utilização da informação contabilística no processo de tomada de decisão determina a diferença entre sucesso e o insucesso do empreendimento, no entanto, este tipo de informação continua a ser menosprezado pela gerência das microempresas. É assim importante estudar os fatores que limitam a utilização da informação contabilística no processo de tomada de decisão de microempresas e investigar a sua relação com os fatores de insucesso deste tipo de entidades. Nesta investigação para se atingirem os objetivos propostos considera-se adequado a adoção de uma metodologia de natureza quantitativa, assente num inquérito dirigido aos Contabilistas Certificados. Através da investigação demonstrou-se a importância que a informação contabilística detém no processo de tomada de decisão das microempresas Portuguesas. Constatou-se que os gerentes limitam a utilização deste tipo de informação, uma vez que não têm capacidade para interpretar a informação contabilística, nem reconhecem os benefícios inerentes à sua utilização nas decisões empresariais. Confirmou-se ainda que existe uma relação positiva entre os fatores de insucesso e os fatores que limitam a utilização da informação contabilística no processo de tomada de decisão de microempresas.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Desde que existe informação, há necessidade de criar um sistema que permita gerir e garantir que a informação está segura e que cumpre os requisitos básicos de segurança. Como tal, é necessário desenvolver técnicas e mecanismos para que os requisitos sejam testados e melhorados continuamente. Com esta necessidade em vista, apareceram padrões que dão resposta a um conjunto vasto de problemas, em diferentes sistemas e aplicações diversas. Estes tornaram-se guias de reflexão para quem os analisava, de arquitetura para quem os implementava e modelos para quem os geria. O padrão ISO 27001 dá resposta aos cuidados a ter para se conseguir um sistema de gestão da segurança da informação eficaz e eficiente. Esta norma preocupa-se com os detalhes de aplicação até à forma como é implementado e arquitetado o sistema. Os processos, atividades, fluxos de trabalho são essenciais para que esta norma seja cumprida. É necessário um bom escrutínio dos processos e suas atividades, assim como um fluxo de trabalho bem definido com papéis e responsabilidades de cada ator. É necessário também assegurar a forma como é gerido, a sua verificação e melhoria contínua. Foi aplicado no ISEP um exercício com o qual se pretendeu verificar se os processos e outros aspetos seguiam estes cuidados e se estavam de acordo com a norma. Durante o exercício foram verificados processos dentro de um certo âmbito, todas as suas atividades, papéis e responsabilidades, verificação de recursos, aplicação de controlos e aplicação de uma análise de risco. Esta análise tem como objetivo verificar o nível de segurança dos recursos, algo que a norma ISO 27001 propõe mas não especifica em que moldes. No final deste exercício pretendeu-se melhorar o sistema de gestão de informação do ISEP em vertentes tais como a documentação, a qual especifica quais os passos realizados no decorrer do mesmo.