894 resultados para Inteligência de Negócios
Resumo:
O presente trabalho teve por objetivos a identificação de uma estratégia e o desenvolvimento de um modelo que permita às operadoras de telecomunicações a sua sustentabilidade, bem como a identificação de caminhos para a adaptação a uma realidade sempre em mudança como é a da indústria das telecomunicações. Numa primeira parte do trabalho elaborou-se uma revisão de literatura do atual estado da arte das principais estratégias relevantes e com aplicação à indústria de telecomunicações. A pesquisa realizada investigou a estrutura atual da indústria de telecomunicações e o estado da competitividade das operadoras de telecomunicações. Dos resultados desta foi possível constatar uma evolução constante da tecnologia e dos modelos de negócio neste ecossistema, assim como a presença de uma pressão concorrencial significativa exercida sobre as operadoras, quer por parte das empresas já existentes no mercado quer por parte das emergentes. As operadoras têm de transformar o seu modelo de rede e de negócios para se adaptarem às mudanças e às tendências da indústria e do mercado. Com base na revisão de literatura, elegeu-se a metodologia baseada num inquérito de pesquisa empírica para aferir o estado da indústria e derivar as estratégias possíveis. Este inquérito foi efetuado a especialistas da área de telecomunicações de diferentes subsectores e países para abordar todos os elementos estratégicos do modelo de negócio futuro. Os resultados da pesquisa revelaram que as empresas que operam no mercado da Internet (Over The Top - OTT) representam a maior ameaça sobre o futuro dos operadores de telecomunicações. Os operadores só vão conseguir responder através da modernização de sua rede, melhorando a qualidade, reduzindo o custo global, e investindo em produtos inovadores e diferenciados e em serviços. Os resultados do inquérito revelam-se de acordo com os pressupostos da Blue Ocean Strategy. A aplicabilidade da Blue Ocean Strategy foi aprofundada permitindo concluir que o valor inovador obtido simultaneamente através da redução de custos e da diferenciação permitem aumentar as vantagens dos operadores existentes em termos das infra-estruturas físicas detidas e das relações estabelecidas com os clientes. O caso particular da fibra óptica até casa (FTTH) foi considerado como aplicação da Blue Ocean Strategy a uma nova tecnologia que as operadoras podem implementar para criar novas soluções e abrir segmentos de mercado inexplorados. Os resultados do inquérito e da investigação realizada à aplicação da Blue Ocean Strategy foram combinados para propor um novo modelo de negócio para as operadoras de telecomunicações que lhes permite, não só responder aos desafios existentes, mas, também, ter uma melhor posição competitiva no futuro. Foi, ainda, realizado um estudo de caso que destacou como a Verizon Communications foi capaz de transformar a sua rede e o modelo de negócio em resposta ao aumento da pressão competitiva. Através do valor da inovação transferida aos seus clientes, a Verizon foi capaz de aumentar significativamente as suas receitas e satisfação do cliente.
Resumo:
Tendo em conta que a Universidade Eduardo Mondlane é a primeira instituição, em Moçambique, a oferecer cursos completamente baseados na Web, o presente estudo constitui uma das primeiras investigações com a qual se pretende perceber qual o impacto de um módulo assente na compreensão de conceitos e na resolução de tarefas, fortemente apoiadas por uma Folha de Cálculo, estruturado numa lógica de webquest e lecionado a distância, rentabilizando-se potencialidades da plataforma virtual Aulanet, no desenvolvimento de competências tecnológicas e de conhecimentos, capacidades e atitudes relacionados com a Estatística descritiva. Para dar resposta às questões de investigação formuladas, optou-se por uma abordagem qualitativa e por uma estratégia de estudo de caso que se desenvolveu num contexto próximo da lógica da investigação - ação. Os principais participantes foram alunos do Curso de Licenciatura em Gestão de Negócios da UEM em Moçambique, a frequentar a disciplina de Estatística Aplicada. Para a recolha de dados, privilegiaram-se as técnicas da inquirição, análise documental e observação direta e participante, e diversos instrumentos como questionários e entrevistas, produções dos alunos, intervenções no fórum de debate, no Chat, testes e trabalhos, diário de bordo e notas de campo, com vista à triangulação metódica. A análise estatística e de conteúdo dos dados recolhidos permite constatar que a aprendizagem, à distância, de Estatística Descritiva, explorando-se meios tecnológicos de informação e de comunicação online e folha de cálculo Excel, inscritos numa estratégia de webquest ,potencia o desenvolvimento de competências tecnológicas e de conhecimentos, capacidades e atitudes relacionados com o tema. Paralelamente, permitiu refletir sobre as condições de ensino e de aprendizagem que podem favorecer tais práticas.
Resumo:
O campo de análise do estudo compreende o subsetor de cerâmica utilitária e decorativa (CUD) nacional. Nesse contexto, o estudo analisa o papel atual do designer e propõe novas estratégias de gestão do design, como ferramentas estratégicas potenciadoras de inovação e de valor acrescentado, para o produto e para o desenvolvimento da empresa. A pertinência da investigação justifica-se pela necessidade premente da reestruturação estratégica das empresas do setor face ao cenário da crise atual. Os dados mais recentes disponibilizados do subsetor indicam que, de 2002 para 2008, encerraram 36,6% das empresas, o número de trabalhadores reduziu-se em 36,8% e o volume de negócios decresceu 32%. Acrescenta-se ainda que, do ano de 2008 para 2012, encerraram 15% das empresas da amostra. Pretende-se com este estudo não só definir o estado atual da arte e do subsetor mas, ir mais além, procurando respostas aos problemas detetados, através de ferramentas estratégicas para a gestão do design integrado nas estratégias de imagem, comercialização e produção. O estudo compreendeu as seguintes etapas: pesquisa, análise de dados e desenvolvimento dos resultados. A etapa da pesquisa correspondeu à recolha da documentação disponível para o contexto do subsetor e da gestão do design apresentado no estado da arte; a pesquisa de campo a seleção de empresas da amostra onde se realizaram questionários (em 2008 e 2012) e entrevistas (em 2008) no universo amostra. Na análise de dados, estes foram apresentados e analisados de forma quantitativa e qualitativa (com recurso a lugares estruturais e a palavras-chave) e relacionados com o estado de arte e desenvolvimento de resultados. A última etapa, desenvolvimento dos resultados, traduz-se pela idealização e construção de ferramentas sob a perspetiva da gestão do design nas empresas: em checklists da definição do trabalho do designer e da integração do designer nas estratégias de gestão do design, aplicadas ao subsetor; na definição das estratégias vigentes na amostra; na sugestão de uma estratégia de gestão de design direcionada para o subsetor e de planos de ação concordantes com a estratégia sugerida. A novidade do estudo está presente nas propostas de ferramentas estratégicas, onde se define o trabalho do designer, enuncia estratégias de gestão do design direcionadas ao subsetor, define campos de integração do designer nessas estratégias, caracteriza-se a aplicabilidade de práticas de gestão do design e sugere-se uma estratégia e planos de ação para aplicar ao subsetor de CUD. De modo a facilitar a aplicação da investigação e da análise aqui realizada, redigiu-se um manual de estratégias de gestão do design – Cerâmica design mais – para disponibilizar e apresentar futuramente ao subsetor e a todos os interessados no tema.
Resumo:
Tomando como ponto de partida a relação entre música e matemática, nesta investigação temos como principal objetivo estudar a influência da aprendizagem musical no desempenho matemático. Pretendeu-se ainda observar o efeito de um conjunto de preditores no referido desempenho, mais concretamente do nível socioeconómico, da inteligência e de variáveis cognitivo-motivacionais (motivação, expectativas de autoeficácia e atribuições causais). Numa primeira parte, delineámos as linhas teóricas desta investigação. Começámos por relatar a relação entre música e matemática no âmbito da musicologia histórica, da teoria e análise musicais, da acústica e das tendências na composição musical, evidenciando os mecanismos de ligação entre elementos e conceitos musicais e tópicos e temas matemáticos. Relatámos os benefícios da exposição musical ao nível do desenvolvimento cognitivo e intelectual, destacando o aumento do raciocínio espacial, do desempenho matemático e da inteligência com a aprendizagem musical. De seguida, descrevemos o impacto das aulas de música no aumento do desempenho académico a várias disciplinas, nomeadamente a Matemática, enfatizando a associação da duração da aprendizagem musical com o aumento das capacidades matemáticas; para além do efeito da aprendizagem musical, procurámos ainda explicação de um desempenho académico melhorado com base em variáveis potenciadoras da performance, tais como o nível socioeconómico e a inteligência. Nesta linha de abordagem, explorámos os efeitos de variáveis influentes do desempenho académico fora do contexto musical, reportando-nos ao nível socioeconómico, à inteligência e às dimensões cognitivo-motivacionais (motivação, expectativas de autoeficácia e atribuições causais), destacando o poder preditivo da inteligência, seguido do nível socioeconómico e da motivação. Por fim, referimo-nos à interação entre música e encéfalo por meio das temáticas da plasticidade neural estrutural e funcional, do efeito da aprendizagem e performance musicais, da cognição musical e domínios não musicais, bem como dos fatores genéticos; sublinhamos a possibilidade de ligações entre a cognição musical e os domínios espacial e matemático. Numa segunda parte, apresentamos a investigação que desenvolvemos em contexto escolar com 112 alunos do 7º ano de escolaridade provenientes de 12 escolas do Ensino Básico. Nove são do Ensino Especializado de Música e três são do Ensino Regular. No total, as escolas enquadram-se nas zonas urbanas de Braga, Coimbra e Lisboa. O estudo possui carácter longitudinal e abrange três anos letivos, do 7º ao 9º anos de escolaridade. Após explanação dos objetivos, das hipóteses de investigação, da caracterização da amostra, da descrição dos instrumentos de avaliação e respetiva validação empírica, relatamos os resultados que encontrámos. Estes permitiram, por um lado, validar a hipótese de que os alunos submetidos ao ensino formal de música apresentam um desempenho matemático superior comparativamente aos alunos que não frequentaram este tipo de ensino (H1) e, por outro, sustentar que o número de anos de aprendizagem musical contribui para o aumento do desempenho matemático (H3). Sublinha-se, ainda, que os alunos de instrumento de teclado revelaram desempenho matemático mais elevado em relação aos seus pares que estudaram outros instrumentos. Já no que se refere ao poder preditivo do tipo de ensino (Ensino Especializado de Música vs. Ensino Regular), apurámos que a formação em música prevê melhores desempenhos a matemática; destaca-se que as variáveis em estudo, tais como o nível socioeconómico, a motivação, as expectativas de autoeficácia e a inteligência adicionam capacidade explicativa do desempenho matemático, sendo que a presença da aprendizagem musical perdeu aptidão preditiva apenas na presença da inteligência. Contudo, após controlo estatístico da inteligência, foi possível concluir que a aprendizagem musical mantém o poder preditivo no desempenho matemático (H2). Os resultados permitiram identificar em que tópicos e temas matemáticos relacionados com os elementos e conceitos musicais os alunos com aprendizagem musical apresentam melhores desempenhos, evidenciando-se os tópicos no âmbito da Geometria (H4). Observámos, também, que é possível prever o desempenho matemático a partir do raciocínio espacial dos alunos (H5). Finalmente, referimos as limitações, refletimos sobre as implicações que estes resultados poderão trazer no âmbito do ensino da música em Portugal e apontamos pistas conducentes ao desenvolvimento de investigações futuras.
Resumo:
The expectations of citizens from the Information Technologies (ITs) are increasing as the ITs have become integral part of our society, serving all kinds of activities whether professional, leisure, safety-critical applications or business. Hence, the limitations of the traditional network designs to provide innovative and enhanced services and applications motivated a consensus to integrate all services over packet switching infrastructures, using the Internet Protocol, so as to leverage flexible control and economical benefits in the Next Generation Networks (NGNs). However, the Internet is not capable of treating services differently while each service has its own requirements (e.g., Quality of Service - QoS). Therefore, the need for more evolved forms of communications has driven to radical changes of architectural and layering designs which demand appropriate solutions for service admission and network resources control. This Thesis addresses QoS and network control issues, aiming to improve overall control performance in current and future networks which classify services into classes. The Thesis is divided into three parts. In the first part, we propose two resource over-reservation algorithms, a Class-based bandwidth Over-Reservation (COR) and an Enhanced COR (ECOR). The over-reservation means reserving more bandwidth than a Class of Service (CoS) needs, so the QoS reservation signalling rate is reduced. COR and ECOR allow for dynamically defining over-reservation parameters for CoSs based on network interfaces resource conditions; they aim to reduce QoS signalling and related overhead without incurring CoS starvation or waste of bandwidth. ECOR differs from COR by allowing for optimizing control overhead minimization. Further, we propose a centralized control mechanism called Advanced Centralization Architecture (ACA), that uses a single state-full Control Decision Point (CDP) which maintains a good view of its underlying network topology and the related links resource statistics on real-time basis to control the overall network. It is very important to mention that, in this Thesis, we use multicast trees as the basis for session transport, not only for group communication purposes, but mainly to pin packets of a session mapped to a tree to follow the desired tree. Our simulation results prove a drastic reduction of QoS control signalling and the related overhead without QoS violation or waste of resources. Besides, we provide a generic-purpose analytical model to assess the impact of various parameters (e.g., link capacity, session dynamics, etc.) that generally challenge resource overprovisioning control. In the second part of this Thesis, we propose a decentralization control mechanism called Advanced Class-based resource OverpRovisioning (ACOR), that aims to achieve better scalability than the ACA approach. ACOR enables multiple CDPs, distributed at network edge, to cooperate and exchange appropriate control data (e.g., trees and bandwidth usage information) such that each CDP is able to maintain a good knowledge of the network topology and the related links resource statistics on real-time basis. From scalability perspective, ACOR cooperation is selective, meaning that control information is exchanged dynamically among only the CDPs which are concerned (correlated). Moreover, the synchronization is carried out through our proposed concept of Virtual Over-Provisioned Resource (VOPR), which is a share of over-reservations of each interface to each tree that uses the interface. Thus, each CDP can process several session requests over a tree without requiring synchronization between the correlated CDPs as long as the VOPR of the tree is not exhausted. Analytical and simulation results demonstrate that aggregate over-reservation control in decentralized scenarios keep low signalling without QoS violations or waste of resources. We also introduced a control signalling protocol called ACOR Protocol (ACOR-P) to support the centralization and decentralization designs in this Thesis. Further, we propose an Extended ACOR (E-ACOR) which aggregates the VOPR of all trees that originate at the same CDP, and more session requests can be processed without synchronization when compared with ACOR. In addition, E-ACOR introduces a mechanism to efficiently track network congestion information to prevent unnecessary synchronization during congestion time when VOPRs would exhaust upon every session request. The performance evaluation through analytical and simulation results proves the superiority of E-ACOR in minimizing overall control signalling overhead while keeping all advantages of ACOR, that is, without incurring QoS violations or waste of resources. The last part of this Thesis includes the Survivable ACOR (SACOR) proposal to support stable operations of the QoS and network control mechanisms in case of failures and recoveries (e.g., of links and nodes). The performance results show flexible survivability characterized by fast convergence time and differentiation of traffic re-routing under efficient resource utilization i.e. without wasting bandwidth. In summary, the QoS and architectural control mechanisms proposed in this Thesis provide efficient and scalable support for network control key sub-systems (e.g., QoS and resource control, traffic engineering, multicasting, etc.), and thus allow for optimizing network overall control performance.
Resumo:
This thesis addresses the problem of word learning in computational agents. The motivation behind this work lies in the need to support language-based communication between service robots and their human users, as well as grounded reasoning using symbols relevant for the assigned tasks. The research focuses on the problem of grounding human vocabulary in robotic agent’s sensori-motor perception. Words have to be grounded in bodily experiences, which emphasizes the role of appropriate embodiments. On the other hand, language is a cultural product created and acquired through social interactions. This emphasizes the role of society as a source of linguistic input. Taking these aspects into account, an experimental scenario is set up where a human instructor teaches a robotic agent the names of the objects present in a visually shared environment. The agent grounds the names of these objects in visual perception. Word learning is an open-ended problem. Therefore, the learning architecture of the agent will have to be able to acquire words and categories in an openended manner. In this work, four learning architectures were designed that can be used by robotic agents for long-term and open-ended word and category acquisition. The learning methods used in these architectures are designed for incrementally scaling-up to larger sets of words and categories. A novel experimental evaluation methodology, that takes into account the openended nature of word learning, is proposed and applied. This methodology is based on the realization that a robot’s vocabulary will be limited by its discriminatory capacity which, in turn, depends on its sensors and perceptual capabilities. An extensive set of systematic experiments, in multiple experimental settings, was carried out to thoroughly evaluate the described learning approaches. The results indicate that all approaches were able to incrementally acquire new words and categories. Although some of the approaches could not scale-up to larger vocabularies, one approach was shown to learn up to 293 categories, with potential for learning many more.
Resumo:
The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.
Resumo:
A domótica é uma área com grande interesse e margem de exploração, que pretende alcançar a gestão automática e autónoma de recursos habitacionais, proporcionando um maior conforto aos utilizadores. Para além disso, cada vez mais se procuram incluir benefícios económicos e ambientais neste conceito, por forma a garantir um futuro sustentável. O aquecimento de água (por meios elétricos) é um dos fatores que mais contribui para o consumo de energia total de uma residência. Neste enquadramento surge o tema “algoritmos inteligentes de baixa complexidade”, com origem numa parceria entre o Departamento de Eletrónica, Telecomunicações e Informática (DETI) da Universidade de Aveiro e a Bosch Termotecnologia SA, que visa o desenvolvimento de algoritmos ditos “inteligentes”, isto é, com alguma capacidade de aprendizagem e funcionamento autónomo. Os algoritmos devem ser adaptados a unidades de processamento de 8 bits para equipar pequenos aparelhos domésticos, mais propriamente tanques de aquecimento elétrico de água. Uma porção do desafio está, por isso, relacionada com as restrições computacionais de microcontroladores de 8 bits. No caso específico deste trabalho, foi determinada a existência de sensores de temperatura da água no tanque como a única fonte de informação externa aos algoritmos, juntamente com parâmetros pré-definidos pelo utilizador que estabelecem os limiares de temperatura máxima e mínima da água. Partindo deste princípio, os algoritmos desenvolvidos baseiam-se no perfil de consumo de água quente, observado ao longo de cada semana, para tentar prever futuras tiragens de água e, consequentemente, agir de forma adequada, adiantando ou adiando o aquecimento da água do tanque. O objetivo é alcançar uma gestão vantajosa entre a economia de energia e o conforto do utilizador (água quente), isto sem que exista necessidade de intervenção direta por parte do utilizador final. A solução prevista inclui também o desenvolvimento de um simulador que permite observar, avaliar e comparar o desempenho dos algoritmos desenvolvidos.
Resumo:
When developing software for autonomous mobile robots, one has to inevitably tackle some kind of perception. Moreover, when dealing with agents that possess some level of reasoning for executing their actions, there is the need to model the environment and the robot internal state in a way that it represents the scenario in which the robot operates. Inserted in the ATRI group, part of the IEETA research unit at Aveiro University, this work uses two of the projects of the group as test bed, particularly in the scenario of robotic soccer with real robots. With the main objective of developing algorithms for sensor and information fusion that could be used e ectively on these teams, several state of the art approaches were studied, implemented and adapted to each of the robot types. Within the MSL RoboCup team CAMBADA, the main focus was the perception of ball and obstacles, with the creation of models capable of providing extended information so that the reasoning of the robot can be ever more e ective. To achieve it, several methodologies were analyzed, implemented, compared and improved. Concerning the ball, an analysis of ltering methodologies for stabilization of its position and estimation of its velocity was performed. Also, with the goal keeper in mind, work has been done to provide it with information of aerial balls. As for obstacles, a new de nition of the way they are perceived by the vision and the type of information provided was created, as well as a methodology for identifying which of the obstacles are team mates. Also, a tracking algorithm was developed, which ultimately assigned each of the obstacles a unique identi er. Associated with the improvement of the obstacles perception, a new algorithm of estimating reactive obstacle avoidance was created. In the context of the SPL RoboCup team Portuguese Team, besides the inevitable adaptation of many of the algorithms already developed for sensor and information fusion and considering that it was recently created, the objective was to create a sustainable software architecture that could be the base for future modular development. The software architecture created is based on a series of di erent processes and the means of communication among them. All processes were created or adapted for the new architecture and a base set of roles and behaviors was de ned during this work to achieve a base functional framework. In terms of perception, the main focus was to de ne a projection model and camera pose extraction that could provide information in metric coordinates. The second main objective was to adapt the CAMBADA localization algorithm to work on the NAO robots, considering all the limitations it presents when comparing to the MSL team, especially in terms of computational resources. A set of support tools were developed or improved in order to support the test and development in both teams. In general, the work developed during this thesis improved the performance of the teams during play and also the e ectiveness of the developers team when in development and test phases.
Resumo:
La seguridad y eficacia de las terapias térmicas están ligadas con la determinación exacta de la temperatura, es por ello que la retroalimentacón de la temperatura en los métodos computacionales es de vital importancia.
Resumo:
La evolución tecnologica y computacional ha generado más oportunidades de mejorar la calidad de vida mediante nuevos logos médicos; en particular, con la calidad de las evaluaciones de diagnóstico. La tomografía computarizada (CT) es uno de los equipos de proyección de imagen para diagnóstico que más se han beneficiado de las mejoras tecnológicas.
Resumo:
Tese dout., Ciências Económicas e Empresariais Domínio Científico de Gestão, Faculdade de Economia da Universidade do Algarve,2013
Resumo:
A presente dissertação discute uma área de negócios emergente em Portugal, os SPAs, que com alteração da legislação em 2004, deixou de estar confinada ao conceito de saúde para integrar o conceito de bem-estar. Apesar do número de unidades em Portugal ser já significativo, existe pouca informação disponível sobre o tema, que também se verifica em termos internacionais. O principal objectivo desta dissertação é o de contribuir para o aprofundar do conhecimento científico nesta área de negócio. Pretende-se aferir os benefícios que os clientes SPA procuram nas referidas unidades em Portugal e avaliar as diferenças existentes entre os clientes das unidades hoteleiras e os clientes das unidades Fitness. O estudo comparou também os níveis de bem-estar geral e específico que cada segmento apurado reportou após as experiências SPA. Foi efectuada uma investigação empírica para o estudo em causa, tendo sido recolhidas duas amostras, uma em ambiente Fitness e outra em ambiente Hoteleiro, através da aplicação de inquéritos após a experiência SPA. Os resultados permitem fazer uma caracterização permitem perceber que em ambas amostras existem quatro factores latentes que permitem perceber as razões que levam os clientes a procurar este tipo de serviço. De entre os factores mais importantes destacam-se a saúde, beleza o relaxamento e isolamento. Os dados permitiram perceber que, em ambas as amostras, existem quatro tipo de grupos homogéneos de clientes. As conclusões apuradas podem permitir a estas unidades de negócio perceber o que os clientes valorizam e contribuir para a segmentação do mercado. Estas duas técnicas podem contribuir para que os SPAs consigam reforçar a satisfação dos clientes com os serviços que lhe são prestados e apostar em segmentos de mercado para os quais se sintam mais vocacionados e que lhes permitam uma obter uma maior rendibilidade.
Resumo:
O presente trabalho incide sobre o meu percurso profissional com especial relevância na função que desempenho na Caixa Geral de Depósitos1 como Coordenadora de um Gabinete Empresas2. Em 1994, após um período de estágio, ingressei nos quadros da Caixa, maior banco português, no qual desenvolvi todo o meu currículo profissional. Com efeito, passei por diversas unidades de negócio – agência, direção e gabinete – nas quais experienciei e adquiri conhecimentos que consolidei ao longo dos anos, num processo contínuo de aprendizagem do negócio bancário, percurso que descrevo exaustivamente no Curriculum Vitae integrado no presente relatório. A par das competências adquiridas na Caixa em ambiente de trabalho, a formação académica no âmbito da gestão empresarial, na qual se enquadra o presente curso de mestrado, revelou-se essencial no meu crescimento profissional, munindo-me de competências técnicas/científicas relevantes e de aplicabilidade diária. Este facto é particularmente evidente na função que desempenho como Coordenadora de um Gabinete Empresas, unidade bancária totalmente focada no negócio empresarial, destacando a relevância das áreas curriculares de recursos humanos, avaliação de empresas e estratégia. Com efeito, poderá considerar-se que a gestão empresarial na minha atividade profissional é aplicada numa dupla vertente: a de gerir uma unidade de negócio bancário, neste caso um Gabinete Empresas, e; na análise dos variados negócios/projetos dos clientes empresa que constam da carteira do Gabinete, área que inerente tem uma vertente de consultoria. Assim, inerente à minha função, e em alinhamento com as estratégias globais e objetivos definidos na Caixa e respetivas direções, e cumprindo com o normativo existente e delegação de competências atribuída, coordeno o Gabinete nas várias vertentes: financeira, operacional, comercial e recursos humanos. Na sequência, defino objetivos ao nível do Gabinete, analiso, formulo e implemento estratégias que visem a sua prossecução, defino planos de atuação e controlo os desvios. A gestão de uma unidade de negócio exige-me ainda um acompanhamento contínuo dos indicadores de negócio e financeiros através das demonstrações financeiras disponibilizadas numa ótica de potenciar a rendibilidade e solidez. Na vertente de recursos humanos, procuro desenvolver competências que permitam aos colaboradores elevar o desempenho das suas funções, defino objetivos individuais de melhoria que, a par com os outros critérios de avaliação definidos na Caixa, contribuem para a avaliação de desempenho, processo que asseguro no Gabinete. No que respeita à vertente comercial participo na negociação com os clientes, acompanho, analiso e emito pareceres técnico/comerciais e decido sobre crédito e demais produtos que constituem a oferta bancária da Caixa. E é inerente ao crédito, maior ativo de um banco, identificado também como de elevada exigência em termos de análise de risco, que desenvolvo no presente relatório de atividade profissional a temática da gestão de sinais de alerta. Esta matéria é de relevância na função que desempenho e consiste na identificação e validação de sinais de alerta, tomando-se decisões face ao risco de crédito percecionado com vista a potenciar a rentabilidade do banco. Pretendo assim identificar de que forma a gestão dos alertas influi na solidez financeira do banco e a sua importância no atual contexto económico.
Resumo:
A performance dos detetores sísmicos atualmente utilizados pode e deve ser melhorada. Atualmente existem vários algoritmos para a deteção de sismos de forma automática, desde os sistemas simples baseados em STA/LTA, aos mais sofisticados baseados em reconhecimento de padrões. Este estudo pretende dar continuidade ao desenvolvimento de uma abordagem de deteção de eventos sísmicos ao nível da estação local, utilizando uma técnica bastante conhecida, chamada Máquina de Vetores de Suporte (SVM). SVM é amplamente utilizada em problemas de classificação, devido a sua boa capacidade de generalização. Nesta experiência, a técnica baseada em SVM é aplicada em diferentes modos de operações. Os resultados mostraram que a técnica proposta dá excelentes resultados em termos de sensibilidade e especificidade, além de exigir um tempo de deteção suficientemente pequeno para ser utilizado num sistema de aviso precoce (early-warning system). Começamos pela classificação de dados de forma Off-line, seguido da validação do classificador desenvolvido. Posteriormente, o processamento de dados é executado de forma contínua (On-line). Os algoritmos foram avaliados em conjuntos de dados reais, provenientes de estações sísmicas da Rede de Vigilância Sísmica de Portugal, e em aplicações reais da área de Sismologia (simulação de funcionamento em ambiente real). Apesar de apenas duas estações serem consideradas, verificou-se que utilizando a combinação de detetores, consegue-se uma percentagem de deteção idêntica para quando utilizado um único modelo (Abordagem OR) e o número de falsos alarmes para a combinação de modelos é quase inexistente (Abordagem AND). Os resultados obtidos abrem várias possibilidades de pesquisas futuras.