242 resultados para APT
Resumo:
Desde mediados de los 90, gracias a las posibilidades de la World Wide Web, se liberó la cartografía de su dependencia del medio físico, posibilitando el acceso y visualización de millones de mapas almacenados en formatos gráficos a través de Internet. En este contexto, el papel de la Información Geográfica (IG) en la vida cotidiana adquirió relevancia en la medida que el acceso a la misma resultaba cada vez más fácil gracias a múltiples herramientas y aplicaciones para distribuir y acercar los mapas en distintos formatos a la sociedad en general. Sin embargo, dado que esa información enseguida pasaba a estar desactualizada, surgió una demanda desde distintos ámbitos (seguridad, medio ambiente transporte, servicios, etc.) y de la sociedad en general para disponer de la información más actual. Como respuesta a esta demanda, surgen las iniciativas denominadas Infraestructuras de Datos Espaciales (IDE). Estas iniciativas, mediante la acción coordinada de un conjunto de tecnologías, estándares, normas y políticas, brindan la posibilidad a los usuarios de acceder, a través de Internet, a IG actualizada producida por instituciones y organismos oficiales, en un marco colaborativo y sustentada en una estructura organizativa. En este contexto, el ámbito educativo no ha permanecido ajeno representando uno de los espacios más propicios para la difusión de las potencialidades y usos de las IDE. En esta tesis se propone la utilización de las IDE en el contexto educativo, específicamente en la Educación Secundaria Obligatoria (ESO). Utilizar las IDE en el contexto educativo implica asignarle un papel en el proceso de enseñanza-aprendizaje y en el marco de esta tesis se presentan los fundamentos teóricos que permiten afirmar que las IDE son un re-curso educativo que responde a las características de las Tecnologías de la Información y la Comunicación (TIC). Esto se explicita a través de un concepto más amplio que hemos denominado “recurso educativo TIC”. En este contexto se analizan las posibilidades que ofrece las IDE para alcanzar los objetivos de aprendizaje de asignaturas de la ESO relacionadas con IG y se identifican contenidos susceptibles de ser abordados utilizándolas. Por otra parte, atendiendo al modelo educativo del aprendizaje basado en competencias, se exponen las posibilidades y potencialidades que ofrecen las IDE para desarrollar la competencia digital. Una vez planteado el marco teórico se desarrollaron dos estrategias de formación y difusión de las IDE orientadas al profesorado de la ESO. En primer lugar, utilizando el Modelo de Diseño Instruccional ADDIE, se diseñaron, desarrollaron, implementaron y evaluaron tres cursos e-learning para el profesorado de ESO de las asignaturas Ciencias Sociales, Ciencias de la Naturaleza y Tecnología. En segundo lugar, con objetivo de complementar los resultados obtenidos de los cursos e-learning, se realizó una actividad en dos Institutos de Educación Secundaria orientada a difundir las IDE. La puesta en práctica de estas estrategias ofreció al profesorado la información necesaria sobre qué son las IDE y proporcionó ejemplos concretos de uso de las mismas en su asignatura, permitiéndoles disponer de los conocimientos e información para emitir una valoración sobre las posibilidades que ofrecen las IDE como un recurso educativo TIC. Since about the middle of the 1990 decade, owing to the potential of the World Wide Web, cartography freed itself from its dependence on its physical support, enabling the access and visualisation of millions of maps stored in graphical formats through the Internet. In this context, the role of Geographic Information (GI) in daily life became relevant in as much as its access turned out to be ever easier due to multiple tools and applications to distribute and bring maps in different formats closer to society in general. Yet, since the information available often became outdated, a demand for updated information arose from different specific fields (security, environment, transport, services, etc.) and from the general public. As a response to this demand, the so-called Spatial Data Infrastructure (SDI) initiatives arose which, through the coordinated action of a set of technologies, stan-dards, and policies, enabled users to access updated GI created by organisations and official institutions, through the Internet, within a cooperative framework and an organisational structure. In this context the educational world has not remained aloof, since it represented one of the most propitious scope for the dissemination of the potentials and uses of SDI. In this thesis the utilization of SDI in the educational context is proposed, specifically in the Spanish Compulsory Secondary Education (Educación Secundaria Obligatoria – ESO). This utilization implies assigning SDI a role in the teaching-learning process; here the theo-retical foundation is presented which allows asserting that SDI is an educational resource fitting in with the characteristics of the Information and Communication Technologies (ICT). This is made explicit by means of a broader concept we have called “ICT educa-tional resource”. The possibilities offered by SDI to reach the objective of learning ESO subjects related to GI are analyzed, and contents apt to be addressed by using them are identified. On the other hand, attending to the educational model of learning based on competences, the possibilities and potentials the SDI offer to develop the digital compe-tence are exposed. After having set forth the theoretical frame, two strategies of training and dissemination of SDI were developed, oriented to the ESO teaching staff. First, using the ADDIE Instruc-tional Design Model, three learning courses were designed, developed, implemented and evaluated for the ESO teaching staff in the subjects of Social Sciences, Natural Sciences and Technology. In the second place, with the purpose of supplementing the results ob-tained from the e-learning courses, an activity was carried out in two High Schools, ori-ented to disseminate the SDI. The implementation of these strategies offered the teaching staff the needed information concerning the SDI and provided specific instances of utilisa-tion thereof in their subject, thus enabling them to acquire the knowledge and information to issue an assessment of the possibilities the SDI offer as an ICT educational resource
Resumo:
El capital financiero es muy volátil y si el inversor no obtiene una remuneración adecuada al riesgo que asume puede plantearse el retirar su capital del patrimonio de la empresa y, en consecuencia, producir un cambio estructural en cualquier sector de la economía. El objetivo principal es el estudio de los coeficientes de regresión (coeficiente beta) de los modelos de valoración de activos empleados en Economía Financiera, esto es, el estudio de la variación de la rentabilidad de los activos en función de los cambios que suceden en los mercados. La elección de los modelos utilizados se justifica por la amplia utilización teórica y empírica de los mismos a lo largo de la historia de la Economía Financiera. Se han aplicado el modelo de valoración de activos de mercado (capital asset pricing model, CAPM), el modelo basado en la teoría de precios de arbitraje (arbitrage pricing theory, APT) y el modelo de tres factores de Fama y French (FF). Estos modelos se han aplicado a los rendimientos mensuales de 27 empresas del sector minero que cotizan en la bolsa de Nueva York (New York Stock Exchange, NYSE) o en la de Londres (London Stock Exchange, LSE), con datos del período que comprende desde Enero de 2006 a Diciembre de 2010. Los resultados de series de tiempo y sección cruzada tanto para CAPM, como para APT y FF producen varios errores, lo que sugiere que muchas empresas del sector no han podido obtener el coste de capital. También los resultados muestran que las empresas de mayor riesgo tienden a tener una menor rentabilidad. Estas conclusiones hacen poco probable que se mantenga en el largo plazo el equilibrio actual y puede que sea uno de los principales factores que impulsen un cambio estructural en el sector minero en forma de concentraciones de empresas. ABSTRACT Financial capital is highly volatile and if the investor does not get adequate compensation for the risk faced he may consider withdrawing his capital assets from the company and consequently produce a structural change in any sector of the economy. The main purpose is the study of the regression coefficients (beta) of asset pricing models used in financial economics, that is, the study of variation in profitability of assets in terms of the changes that occur in the markets. The choice of models used is justified by the extensive theoretical and empirical use of them throughout the history of financial economics. Have been used the capital asset pricing model, CAPM, the model XII based on the arbitrage pricing theory (APT) and the three-factor model of Fama and French (FF). These models have been applied to the monthly returns of 27 mining companies listed on the NYSE (New York Stock Exchange) or LSE(London Stock Exchange), using data from the period covered from January 2006 to December 2010. The results of time series and cross sectional regressions for CAPM, APT and FF produce some errors, suggesting that many companies have failed to obtain the cost of capital. Also the results show that higher risk firms tend to have lower profitability. These findings make it unlikely to be mainteined over the long term the current status and could drive structural change in the mining sector in the form of mergers.
Resumo:
The integration of correlation processes in design systems has as a target measurements in 3D directly and according to the users criteria in order to generate the required database for the development of the project. In the phase of photogrammetric works, internal and external orientation parameters are calculated and stereo models are created from standard images. The aforementioned are integrated in the system where the measurement of the selected items is done by applying developed correlation algorithms. The processing period has the tools to carry out the calculations in an easy and automatic way, as well as image measurement techniques to acquire the most correct information. The proposed software development is done on Visual Studio platforms for PC, applying the most apt codes and symbols according to the terms of reference required for the design. The results of generating the data base in an interactive way with the geometric study of the structures, facilitates and improves the quality of the works in the projects.
Resumo:
Possible switching architectures, with Optically Programmable Logic Cells - OPLCs - will be reported in this paper. These basic units, previously employed by us for some other applications mainly in optical computing, will be employed as main elements to switch optical communications signals. The main aspect to be considered is that because the nternal components of these cells have nonlinear behaviors, namely either pure bistable or SEED-like properties, several are the possibilities to be obtained. Moreover, because their properties are dependent, under certain condition, of the signal wavelength, they are apt to be employed in WDM systems and the final result will depend on the orresponding optical signal frequency. We will give special emphasis to the case where self-routing is achieved, namely to structures of the Batcher or Banyan type. In these cases, as it will be shown, there is the possibility to route any packet input to a certain direction according to its first bits. The number of possible outputs gives the number of bits needed to route signals. An advantage of this configuration is that a very versatile behavior may be allowed. The main one is the possibility to obtain configurations with different kinds of behavior, namely, Strictly Nonblocking, Wide-Sense Nonblocking or Rearrangeably Nonblocking as well as to eliminate switching conflicts at a certain intermediate stages.
Resumo:
En este proyecto se hace un análisis en profundidad de las técnicas de ataque a las redes de ordenadores conocidas como APTs (Advanced Persistent Threats), viendo cuál es el impacto que pueden llegar a tener en los equipos de una empresa y el posible robo de información y pérdida monetaria que puede llevar asociada. Para hacer esta introspección veremos qué técnicas utilizan los atacantes para introducir el malware en la red y también cómo dicho malware escala privilegios, obtiene información privilegiada y se mantiene oculto. Además, y cómo parte experimental de este proyecto se ha desarrollado una plataforma para la detección de malware de una red en base a las webs, URLs e IPs que visitan los nodos que la componen. Obtendremos esta visión gracias a la extracción de los logs y registros de DNS de consulta de la compañía, sobre los que realizaremos un análisis exhaustivo. Para poder inferir correctamente qué equipos están infectados o no se ha utilizado un algoritmo de desarrollo propio inspirado en la técnica Belief Propagation (“Propagación basada en creencia”) que ya ha sido usada antes por desarrolladores cómo los de los Álamos en Nuevo México (Estados Unidos) para fines similares a los que aquí se muestran. Además, para mejorar la velocidad de inferencia y el rendimiento del sistema se propone un algoritmo adaptado a la plataforma Hadoop de Apache, por lo que se modifica el paradigma de programación habitual y se busca un nuevo paradigma conocido como MapReduce que consiste en la división de la información en conceptos clave-valor. Por una parte, los algoritmos que existen basados en Belief Propagation para el descubrimiento de malware son propietarios y no han sido publicados completamente hasta la fecha, por otra parte, estos algoritmos aún no han sido adaptados a Hadoop ni a ningún modelo de programación distribuida aspecto que se abordará en este proyecto. No es propósito de este proyecto desarrollar una plataforma comercial o funcionalmente completa, sino estudiar el problema de las APTs y una implementación que demuestre que la plataforma mencionada es factible de implementar. Este proyecto abre, a su vez, un horizonte nuevo de investigación en el campo de la adaptación al modelo MapReduce de algoritmos del tipo Belief Propagation basados en la detección del malware mediante registros DNS. ABSTRACT. This project makes an in-depth investigation about problems related to APT in computer networks nowadays, seeing how much damage could they inflict on the hosts of a Company and how much monetary and information loss may they cause. In our investigation we will find what techniques are generally applied by attackers to inject malware into networks and how this malware escalates its privileges, extracts privileged information and stays hidden. As the main part of this Project, this paper shows how to develop and configure a platform that could detect malware from URLs and IPs visited by the hosts of the network. This information can be extracted from the logs and DNS query records of the Company, on which we will make an analysis in depth. A self-developed algorithm inspired on Belief Propagation technique has been used to infer which hosts are infected and which are not. This technique has been used before by developers of Los Alamos Lab (New Mexico, USA) for similar purposes. Moreover, this project proposes an algorithm adapted to Apache Hadoop Platform in order to improve the inference speed and system performance. This platform replaces the traditional coding paradigm by a new paradigm called MapReduce which splits and shares information among hosts and uses key-value tokens. On the one hand, existing algorithms based on Belief Propagation are part of owner software and they have not been published yet because they have been patented due to the huge economic benefits they could give. On the other hand these algorithms have neither been adapted to Hadoop nor to other distributed coding paradigms. This situation turn the challenge into a complicated problem and could lead to a dramatic increase of its installation difficulty on a client corporation. The purpose of this Project is to develop a complete and 100% functional brand platform. Herein, show a short summary of the APT problem will be presented and make an effort will be made to demonstrate the viability of an APT discovering platform. At the same time, this project opens up new horizons of investigation about adapting Belief Propagation algorithms to the MapReduce model and about malware detection with DNS records.
Resumo:
Este artículo trata dos temas estrechamente vinculados: por un lado, se presenta parte del trabajo realizado en la Tesis denominada “Modelo Híbrido de Ayuda al Capitán”, cuyos planteamientos han servido de base para la realización del proyecto de I+D+i denominado “e- Flow. Sistema integral de soporte a la evacuación”, segundo tema que se trata en este artículo. Se describirá una herramienta desarrollada para la creación de un modelo de las redes de evacuación (Macromodelo) y otra para realizar simulaciones de comportamiento de individuos (Micromodelo), se hablará de alternativas a los simulacros y se especificarán los requerimientos de una infraestructura física y de servicios para un sistema de ayuda al capitán. Sobre el proyecto e-Flow, se dará una visión general, describiendo la infraestructura física y de servicios. Se mostrará el potencial que puede suponer la implantación de un sistema cuyas posibilidades van más allá del soporte a la evacuación.
Resumo:
Este artículo trata dos temas estrechamente vinculados: por un lado, se presenta parte del trabajo realizado en la Tesis denominada “Modelo Híbrido de Ayuda al Capitán”, cuyos planteamientos han servido de base para la realización del proyecto de I+D+i denominado “e- Flow. Sistema integral de soporte a la evacuación”, segundo tema que se trata en este artículo. Se describirá una herramienta desarrollada para la creación de un modelo de las redes de evacuación (Macromodelo) y otra para realizar simulaciones de comportamiento de individuos (Micromodelo), se hablará de alternativas a los simulacros y se especificarán los requerimientos de una infraestructura física y de servicios para un sistema de ayuda al Capitán. Sobre el proyecto e-Flow, se dará una visión general, describiendo la infraestructura física y de servicios. Se mostrará el potencial que puede suponer la implantación de un sistema cuyas posibilidades van más allá del soporte a la evacuación.
Resumo:
The period between 1570-1620 has left a remarkable amount of documents related to shipbuilding in the Iberian Peninsula. Among them, the Instrucción nautica written by Diego García de Palacio in 1587 is widely recognized as the first published book that includes an extensive discussion of ship design and construction. García de Palacio centres his discussion on a 400 toneladas nao, a series of woodcuts that illustrate the shape and dimensions of the ship accompany the explanation. In the late XVI century ship hulls were designed following procedures based upon an old shipwrightry tradition born in the Mediterranean. By simple rules the master shipwright plots the central frame and tail frames and complete the hull body using wooden ribbands. Computer software for 3D modelling using NURBs surfaces helps to recreate ships hulls. In this work the 400 toneladas nao is reconstructed and her hydrostatic parameters are compared with other ships.
Resumo:
Los ataques a redes de información son cada vez más sofisticados y exigen una constante evolución y mejora de las técnicas de detección. Para ello, en este proyecto se ha diseñado e implementado una plataforma cooperativa para la detección de intrusiones basada en red. En primer lugar, se ha realizado un estudio teórico previo del marco tecnológico relacionado con este ámbito, en el que se describe y caracteriza el software que se utiliza para realizar ataques a sistemas (malware) así como los métodos que se utilizan para llegar a transmitir ese software (vectores de ataque). En el documento también se describen los llamados APT, que son ataques dirigidos con una gran inversión económica y temporal. Estos pueden englobar todos los malware y vectores de ataque existentes. Para poder evitar estos ataques, se estudiarán los sistemas de detección y prevención de intrusiones, describiendo brevemente los algoritmos que se tienden a utilizar en la actualidad. En segundo lugar, se ha planteado y desarrollado una plataforma en red dedicada al análisis de paquetes y conexiones para detectar posibles intrusiones. Este sistema está orientado a sistemas SCADA (Supervisory Control And Data Adquisition) aunque funciona sobre cualquier red IPv4/IPv6, para ello se definirá previamente lo que es un sistema SCADA, así como sus partes principales. Para implementar el sistema se han utilizado dispositivos de bajo consumo llamados Raspberry PI, estos se ubican entre la red y el equipo final que se quiera analizar. En ellos se ejecutan 2 aplicaciones desarrolladas de tipo cliente-servidor (la Raspberry central ejecutará la aplicación servidora y las esclavas la aplicación cliente) que funcionan de forma cooperativa utilizando la tecnología distribuida de Hadoop, la cual se explica previamente. Mediante esta tecnología se consigue desarrollar un sistema completamente escalable. La aplicación servidora muestra una interfaz gráfica que permite administrar la plataforma de análisis de forma centralizada, pudiendo ver así las alarmas de cada dispositivo y calificando cada paquete según su peligrosidad. El algoritmo desarrollado en la aplicación calcula el ratio de paquetes/tiempo que entran/salen del equipo final, procesando los paquetes y analizándolos teniendo en cuenta la información de señalización, creando diferentes bases de datos que irán mejorando la robustez del sistema, reduciendo así la posibilidad de ataques externos. Para concluir, el proyecto inicial incluía el procesamiento en la nube de la aplicación principal, pudiendo administrar así varias infraestructuras concurrentemente, aunque debido al trabajo extra necesario se ha dejado preparado el sistema para poder implementar esta funcionalidad. En el caso experimental actual el procesamiento de la aplicación servidora se realiza en la Raspberry principal, creando un sistema escalable, rápido y tolerante a fallos. ABSTRACT. The attacks to networks of information are increasingly sophisticated and demand a constant evolution and improvement of the technologies of detection. For this project it is developed and implemented a cooperative platform for detect intrusions based on networking. First, there has been a previous theoretical study of technological framework related to this area, which describes the software used for attacks on systems (malware) as well as the methods used in order to transmit this software (attack vectors). In this document it is described the APT, which are attacks directed with a big economic and time inversion. These can contain all existing malware and attack vectors. To prevent these attacks, intrusion detection systems and prevention intrusion systems will be discussed, describing previously the algorithms tend to use today. Secondly, a platform for analyzing network packets has been proposed and developed to detect possible intrusions in SCADA (Supervisory Control And Data Adquisition) systems. This platform is designed for SCADA systems (Supervisory Control And Data Acquisition) but works on any IPv4 / IPv6 network. Previously, it is defined what a SCADA system is and the main parts of it. To implement it, we used low-power devices called Raspberry PI, these are located between the network and the final device to analyze it. In these Raspberry run two applications client-server developed (the central Raspberry runs the server application and the slaves the client application) that work cooperatively using Hadoop distributed technology, which is previously explained. Using this technology is achieved develop a fully scalable system. The server application displays a graphical interface to manage analytics platform centrally, thereby we can see each device alarms and qualifying each packet by dangerousness. The algorithm developed in the application calculates the ratio of packets/time entering/leaving the terminal device, processing the packets and analyzing the signaling information of each packet, reating different databases that will improve the system, thereby reducing the possibility of external attacks. In conclusion, the initial project included cloud computing of the main application, being able to manage multiple concurrent infrastructure, but due to the extra work required has been made ready the system to implement this funcionality. In the current test case the server application processing is made on the main Raspberry, creating a scalable, fast and fault-tolerant system.
Resumo:
The progression of animal life from the paleozoic ocean to rivers and diverse econiches on the planet's surface, as well as the subsequent reinvasion of the ocean, involved many different stresses on ionic pattern, osmotic pressure, and volume of the extracellular fluid bathing body cells. The relatively constant ionic pattern of vertebrates reflects a genetic "set" of many regulatory mechanisms--particularly renal regulation. Renal regulation of ionic pattern when loss of fluid from the body is disproportionate relative to the extracellular fluid composition (e.g., gastric juice with vomiting and pancreatic secretion with diarrhea) makes manifest that a mechanism to produce a biologically relatively inactive extracellular anion HCO3- exists, whereas no comparable mechanism to produce a biologically inactive cation has evolved. Life in the ocean, which has three times the sodium concentration of extracellular fluid, involves quite different osmoregulatory stress to that in freshwater. Terrestrial life involves risk of desiccation and, in large areas of the planet, salt deficiency. Mechanisms integrated in the hypothalamus (the evolutionary ancient midbrain) control water retention and facilitate excretion of sodium, and also control the secretion of renin by the kidney. Over and above the multifactorial processes of excretion, hypothalamic sensors reacting to sodium concentration, as well as circumventricular organs sensors reacting to osmotic pressure and angiotensin II, subserve genesis of sodium hunger and thirst. These behaviors spectacularly augment the adaptive capacities of animals. Instinct (genotypic memory) and learning (phenotypic memory) are melded to give specific behavior apt to the metabolic status of the animal. The sensations, compelling emotions, and intentions generated by these vegetative systems focus the issue of the phylogenetic emergence of consciousness and whether primal awareness initially came from the interoreceptors and vegetative systems rather than the distance receptors.
Resumo:
A sociedade está cada vez mais exigente com relação à qualidade dos produtos consumidos e se preocupa com os benefícios para a saúde. Neste contexto, objetivou-se avaliar o efeito da inclusão de níveis de óleo de canola na dieta de vacas sobre amanteiga e muçarela, buscando produtos mais saudáveis para o consumo humano. Foram utilizadas 18 vacas Holandesas, em estágio intermediário de lactação, com produção média de 22 (± 4) Kg de leite/ dia, as quais foram distribuídas em dois quadrados latinos 3x3 contemporâneos e receberam as dietas experimentais: T1- Controle (0% de inclusão de óleo); T2- 3% de inclusão de óleo de canola e T3- 6% de inclusão de óleo de canola. O perfil lipídico foi determinado através de cromatografia gasosa, além da avaliação de qualidade nutricional, realizada através de equações utilizando os ácidos graxos obtidos no perfil lipídico, análises físico-químicas determinadas pela metodologia do Instituto Adolfo Lutz e análises microbiológicas. Houveram problemas durante processamento do leite, gerando alterações de tecnologia de fabricação do produto manteiga, obtendo-se outro produto, o creme de leite, ao invés de manteiga, além de prejuízos na qualidade microbiológicas do creme de leite e muçarela. A inclusão de óleo de canola na dieta em lactação reduziu quadraticamente os ácidos graxos de cadeia curta e proporcionou aumento quadrático dos ácidos graxos de cadeia longa, dos ácidos graxos insaturados e ácidos graxos monoinsaturados na muçarela. A relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) e a relação ômega-6/ômega-3, assim como os índices de aterogenicidade e trombogenicidade, na muçarela, reduziram linearmente 25,68%, 31,35%; 32,12% e 21,78%, respectivamente, quando comparando T1 e T3. No creme de leite, houve redução linear dos ácidos graxos de cadeia curta e média, bem como, os ácidos graxos saturados e a relação ácidos graxos saturados/ ácidos graxos insaturados (AGS/ AGI) em 41,07%; 23,82%; 15,91% e 35,59%, respectivamente, enquanto os ácidos graxos de cadeia longa, ácidos graxos insaturados e ácidos graxos monoinsaturados aumentaram linearmente 41,40%; 28,24% e 32,07%, nesta ordem, quando comparando T1 com T3. Os índices de aterogenicidade e trombogenicidade reduziram de forma linear, enquanto o índice h/H (razão ácidos graxos hipocolesterolêmicos e hipercolesterolêmicos) aumentou linearmente. A composição físico-química de ambos derivados e o rendimento da muçarela não apresentaram efeito significativo com a inclusão do óleo de canola, exceto a proteína bruta da muçarela que apresentou aumento linear e a gordura do creme de leite que apresentou efeito quadrático. As análises microbiológicas mostram contagens muito elevadas de microrganismos, sugerindo que os produtos não apresentam qualidade microbiológica, decorrente da ausência do processo de pasteurização do creme e da baixa eficiência do tratamento térmico aplicado ao leite destinado a produção da muçarela. Conclui-se que a adição de óleo de canola na dieta de vacas lactantes proporciona muçarela e creme de leite mais saudáveis para o consumo humano, pois apresentaram perfil lipídico mais rico em ácidos graxos insaturados, além da série ômega-3 e ácido oleico, entretanto, devido a problemas de processamento, estes produtos obtidos, não estão aptos ao consumo devido à ausência de qualidade microbiológica.
Resumo:
We present simultaneous and continuous observations of the Hα, Hβ, He I D_3, Na I D_1,D_2 doublet and the Ca II H&K lines for the RS CVn system HR 1099. The spectroscopic observations were obtained during the MUSICOS 1998 campaign involving several observatories and instruments, both echelle and long-slit spectrographs. During this campaign, HR 1099 was observed almost continuously for more than 8 orbits of 2^d.8. Two large optical flares were observed, both showing an increase in the emission of Hα, Ca II H K, Hβ and He I D_3 and a strong filling-in of the Na I D_1, D_2 doublet. Contemporary photometric observations were carried out with the robotic telescopes APT-80 of Catania and Phoenix-25 of Fairborn Observatories. Maps of the distribution of the spotted regions on the photosphere of the binary components were derived using the Maximum Entropy and Tikhonov photometric regularization criteria. Rotational modulation was observed in Hα and He I D_3 in anti-correlation with the photometric light curves. Both flares occurred at the same binary phase (0.85), suggesting that these events took place in the same active region. Simultaneous X-ray observations, performed by ASM on board RXTE, show several flare-like events, some of which correlate well with the observed optical flares. Rotational modulation in the X-ray light curve has been detected with minimum flux when the less active G5 V star was in front. A possible periodicity in the X-ray flare-like events was also found.
Resumo:
Carbon nanotubes exhibit the structure and chemical properties that make them apt substrates for many adsorption applications. Of particular interest are carbon nanotube bundles, whose unique geometry is conducive to the formation of pseudo-one-dimensional phases of matter, and graphite, whose simple planar structure allows ordered phases to form in the absence of surface effects. Although both of these structures have been the focus of many research studies, knowledge gaps still remain. Much of the work with carbon nanotubes has used simple adsorbates1-43, and there is little kinetic data available. On the other hand, there are many studies of complex molecules adsorbing on graphite; however, there is almost no kinetic data reported for this substrate. We seek to close these knowledge gaps by performing a kinetic study of linear molecules of increasing length adsorbing on carbon nanotube bundles and on graphite. We elucidated the process of adsorption of complex admolecules on carbon nanotube bundles, while at the same time producing some of the first equilibrium results of the films formed by large adsorbates on these structures. We also extended the current knowledge of adsorption on graphite to include the kinetics of adsorption. The kinetic data that we have produced enables a more complete understanding of the process of adsorption of large admolecules on carbon nanotube bundles and graphite. We studied the adsorption of particles on carbon nanotube bundles and graphite using analytical and computational techniques. By employing these methods separately but in parallel, we were able to constantly compare and verify our results. We calculated and simulated the behavior of a given system throughout its evolution and then analyzed our results to determine which system parameters have the greatest effect on the kinetics of adsorption. Our analytical and computational results show good agreement with each other and with the experimental isotherm data provided by our collaborators. As a result of this project, we have gained a better understanding of the kinetics of adsorption. We have learned about the equilibration process of dimers on carbon nanotube bundles, identifying the “filling effect”, which increases the rate of total uptake, and explaining the cause of the transient “overshoot” in the coverage of the surface. We also measured the kinetic effect of particle-particle interactions between neighboring adsorbates on the lattice. For our simulations of monomers adsorbing on graphite, we succeeded in developing an analytical equation to predict the characteristic time as a function of chemical potential and of the adsorption and interaction energies of the system. We were able to further explore the processes of adsorption of dimers and trimers on graphite (again observing the filling effect and the overshoot). Finally, we were able to show that the kinetic behaviors of monomers, dimers, and trimers that have been reported in experimental results also arise organically from our model and simulations.
Resumo:
ABSTRACT \ Employers know that to have a successful organization, they must have the right people in the right jobs. But how will they know whom to place where? The development of a model based upon an individual's personality traits and strengths, and how to best use them, is a good place to start. Employees working in positions in which their traits and strengths are maximized enjoy work more, are more efficient, and are less apt to be absent or to look for work elsewhere. It is a mutually beneficial process of selection for both employers and employees. This model illustrates the process in an automobile and property insurance claims operation through utilization of the Myers-Briggs Type Indicators and the StrengthsFinder Profiles.
Resumo:
O crescimento económico de um país depende dos fundos disponíveis, quer para o financiamento da formação de capital quer para a sua reposição. Fundos obtidos pelas empresas e organismos públicos através de diversas formas, entre as quais, se destaca a emissão de valores mobiliários. Os aforradores, detentores de recursos, ao comprarem valores mobiliários, aliam uma alta rentabilidade a uma elevada liquidez na remuneração dos seus investimentos. As bolsas de valores são o meio onde as empresas, os organismos públicos e os aforradores, têm a possibilidade de verem esses interesses conciliados de uma maneira eficiente, eficaz e transparente, garantindo assim, uma maior liquidez aos títulos financeiros transaccionados em bolsa de valores. As empresas possuem várias alternativas de financiamento, o mercado de capitais é considerado pelos gestores, a fonte onde o rendimento ou o retorno obtido pode ser maior, perante a contrapartida de se incorrer um maior risco. Este mercado surge como alternativa aos empréstimos bancários, as empresas podem, dessa forma, adquirir financiamento de terceiros, os quais se tornarão accionistas dessa empresa. Podem emitir novas acções no mercado accionista de forma a atrair investidores externos que garantam a sustentabilidade do negócio. As acções possuem diversas caracteristicas e modalidades e fazem com que o capital da empresa seja partilhado por todos os seus accionistas, tendo em conta a proporção por eles adquirida individualmente. Esta dissertação investiga a dinâmica de compra e de venda das acções no mercado bolsista, os factores que determinam o seu preço, assim como os modelos que permitem a avaliação das mesmas e a inferência da taxa de retorno esperada por um investidor. A avaliação das acções é o tema de maior importância para esta análise, mais concretamente, a determinação e previsão do preço, e não apenas o preço propriamente dito, pois este é facultado diáriamente por vários jornais e também na internet. Perante o estudo da determinação de preços de uma acção num horizonte temporal, um investidor pode inferir se as suas acções estão a ser avaliadas sob um preço justo, e mais importante, pode apurar a sua previsão consoante dados e análises de factores. Outro ponto importante abordado nesta investigação tem que ver com a possibilidade das empresas em conhecer o modo como o mercado faz a sua avaliação a fim de tomar decisões certas acerca do orçamento de capital. Apenas se deve julgar a atractividade de um negócio se se souber como são avaliadas as acções. Nos mercados financeiros existe a tendência, por parte dos agentes económicos, de relacionarem o preço com o valor dos títulos financeiros. As decisões para a transacção de títulos financeiros são tomadas segundo a sua comparação. O preço ou cotação de mercado é formado em mercados organizados, pelo que depende das regras de funcionamento do mercado, tais como, os mínimos para transacção ou a variação máxima e mínima permitida. Estão associados a uma transação dependendo assim da procura e oferta dos títulos e incorporam ainda os custos de transacção. A ideia subjacente ao modelo Capital Asset Pricing Model é a de que, os investidores esperam uma recompensa pela preocupação dos investimentos realizados com risco ou com um retorno incerto. Quando se investe em títulos com risco, espera-se um retorno extra (comparando com os Bilhetes do Tesouro sem risco, recebe-se apenas os juros) ou um prémio de risco pela preocupação. A incerteza no retorno dos títulos provem de duas fontes, nomeadamente os factores macroeconómicos, pode-se chamar também, um factor comum, e os factores específicos inerentes à actividade da empresa. O facto comum é assumido como tendo um valor esperado zero pois é medido por nova informação respeitante à macroeconomia. O modelo assume duas ideias fundamentais: em primeiro lugar, existe consenso em relação ao facto dos investidores exigirem um retorno adicional por correrem riscos, e em segundo lugar, os investidores preocupam-se geralmente com o risco de mercado geral que não pode ser eliminado através de diversificação da carteira de investimentos. Este modelo pode ser bastante eficaz pois apenas considera um único factor para o cálculo da rendibilidade esperada de um título financeiro, que é a volatilidade do mercado no geral, a qual pode ser estudada. Ao contrário dos modelos multifactoriais, que incluem vários factores macroeconómicos tornando o objectivo da análise pouco intuitivo e complexo. Existem vários modelos para avaliação dos títulos de uma empresa cotada em bolsa de valores, geralmente estes modelos utilizam taxas de juro sem risco para equilibrar carteiras diversificadas, embora seja necessário analisar o retorno de um título ou carteira sob a influência de diversas variáveis macroeconómicas. Por exemplo outro modelo aplicado neste dissertação é o modelo Arbitrage Pricing Theory que perante o seu resultado comparado com o primeiro modelo, se pode definir qual dos modelos tem uma aplicação mais conclusiva para o mercado accionista português. Este modelo de avaliação por arbitragem estabelece uma relação linear entre o excedente do retorno esperado dos activos face à taxa de juro certa (sem risco) e um conjunto de variáveis. Pressupõe que a taxa de rentabilidade de um activo com risco é uma função linear de um conjunto de factores comuns a todos os activos financeiros. Tem como ideia subjacente, a constituição de uma carteira de não arbitragem, ou seja, uma carteira que não envolve qualquer risco (sistemático ou específico) e não requer investimento inicial pois a venda de certos activos gera fundos para adquirir novos. A metodologia implementada abrange o mercado financeiro e modelos possíveis para esta questão. Para responder às hipóteses de investigação efectuou-se a aplicação efectiva do modelo CAPM e do modelo APT, com a captação de dados oficiais em instituições financeiras e na Bolsa de Valores NYSE Euronext Lisbon. Considerou-se um período temporal num passado próximo de forma a poder obter-se conclusões concretas e indicadores precisos para a sua implementação e desenvolvimento no futuro. A principal conclusão desta dissertação relaciona-se com o facto de não se verificar a total validação da aplicação dos modelos, contudo o modelo CAPM é mais conclusivo do que o modelo APT, pois pode-se afirmar que tem aplicação prática em empresas que se conheça à priori a sua capitalização bolsista e beta anual. Por exemplo, aos títulos financeiros de empresas com capitalizações bolsistas inferiores a cinco mil milhões de euros e com um beta anual inferior a 1 poderá aplicar-se o modelo, assim como a títulos de empresas com capitalizações bolsistas superiores a dez mil milhões de euros e beta anual superior 1,5. Os sectores da Banca e do Papel também poderão ter potencial de aplicação do modelo.