580 resultados para Prototypes
Resumo:
This thesis studies, in collaboration with a Finnish logistics service company, gainsharing and the development of a gainsharing models in a logistics outsourcing context. The purpose of the study is to create various gainsharing model variations for the use of a service provider and its customers in order to develop and enhance the customer’s processes and operations, create savings and improve the collaboration between the companies. The study concentrates on offering gainsharing model alternatives for companies operating in internal logistics outsourcing context. Additionally, the prerequisites for the gainsharing arrangement are introduced. In the beginning of the study an extensive literature review is conducted. There are three main themes explored which are the collaboration in an outsourcing context, key account management and gainsharing philosophy. The customer expectations and experiences are gathered by interviewing case company’s employees and its key customers. In order to design the gainsharing model prototypes, customers and other experts’ knowledge and experiences are utilized. The result of this thesis is five gainsharing model variations that are based on the empirical and theoretical data. In addition, the instructions related to each created model are given to the case company, but are not available in this paper
Resumo:
In today’s big data world, data is being produced in massive volumes, at great velocity and from a variety of different sources such as mobile devices, sensors, a plethora of small devices hooked to the internet (Internet of Things), social networks, communication networks and many others. Interactive querying and large-scale analytics are being increasingly used to derive value out of this big data. A large portion of this data is being stored and processed in the Cloud due the several advantages provided by the Cloud such as scalability, elasticity, availability, low cost of ownership and the overall economies of scale. There is thus, a growing need for large-scale cloud-based data management systems that can support real-time ingest, storage and processing of large volumes of heterogeneous data. However, in the pay-as-you-go Cloud environment, the cost of analytics can grow linearly with the time and resources required. Reducing the cost of data analytics in the Cloud thus remains a primary challenge. In my dissertation research, I have focused on building efficient and cost-effective cloud-based data management systems for different application domains that are predominant in cloud computing environments. In the first part of my dissertation, I address the problem of reducing the cost of transactional workloads on relational databases to support database-as-a-service in the Cloud. The primary challenges in supporting such workloads include choosing how to partition the data across a large number of machines, minimizing the number of distributed transactions, providing high data availability, and tolerating failures gracefully. I have designed, built and evaluated SWORD, an end-to-end scalable online transaction processing system, that utilizes workload-aware data placement and replication to minimize the number of distributed transactions that incorporates a suite of novel techniques to significantly reduce the overheads incurred both during the initial placement of data, and during query execution at runtime. In the second part of my dissertation, I focus on sampling-based progressive analytics as a means to reduce the cost of data analytics in the relational domain. Sampling has been traditionally used by data scientists to get progressive answers to complex analytical tasks over large volumes of data. Typically, this involves manually extracting samples of increasing data size (progressive samples) for exploratory querying. This provides the data scientists with user control, repeatable semantics, and result provenance. However, such solutions result in tedious workflows that preclude the reuse of work across samples. On the other hand, existing approximate query processing systems report early results, but do not offer the above benefits for complex ad-hoc queries. I propose a new progressive data-parallel computation framework, NOW!, that provides support for progressive analytics over big data. In particular, NOW! enables progressive relational (SQL) query support in the Cloud using unique progress semantics that allow efficient and deterministic query processing over samples providing meaningful early results and provenance to data scientists. NOW! enables the provision of early results using significantly fewer resources thereby enabling a substantial reduction in the cost incurred during such analytics. Finally, I propose NSCALE, a system for efficient and cost-effective complex analytics on large-scale graph-structured data in the Cloud. The system is based on the key observation that a wide range of complex analysis tasks over graph data require processing and reasoning about a large number of multi-hop neighborhoods or subgraphs in the graph; examples include ego network analysis, motif counting in biological networks, finding social circles in social networks, personalized recommendations, link prediction, etc. These tasks are not well served by existing vertex-centric graph processing frameworks whose computation and execution models limit the user program to directly access the state of a single vertex, resulting in high execution overheads. Further, the lack of support for extracting the relevant portions of the graph that are of interest to an analysis task and loading it onto distributed memory leads to poor scalability. NSCALE allows users to write programs at the level of neighborhoods or subgraphs rather than at the level of vertices, and to declaratively specify the subgraphs of interest. It enables the efficient distributed execution of these neighborhood-centric complex analysis tasks over largescale graphs, while minimizing resource consumption and communication cost, thereby substantially reducing the overall cost of graph data analytics in the Cloud. The results of our extensive experimental evaluation of these prototypes with several real-world data sets and applications validate the effectiveness of our techniques which provide orders-of-magnitude reductions in the overheads of distributed data querying and analysis in the Cloud.
Resumo:
Työn tavoitteena oli toimintatutkimuksen kautta tutkia ketterän ohjelmistokehityksen keinoin toteutetun käyttöliittymäkehityksen kykyä vastata asiakkaiden todellisiin tarpeisiin. Työssä haettiin tapaustutkimusyritykselle olemassa olevan työkalun uuden version käyttöliittymän toteutusvaihtoehtoja ja toteutettiin korkean tarkkuuden prototyyppejä näitä hyödyntäen. Ketterän ohjelmistokehityksen arvot ja periaatteet soveltuivat kehitysprosessissa käytettäviksi erinomaisesti. Iteratiivinen lähestymistapa kehitykseen ja läheinen yhteistyö tapaustutkimusyrityksen ja kandidaatintyöntekijän kanssa mahdollistivat yrityksen odotusten täyttämisen. Työkalun käyttöliittymä saatettiin tasolle, joka mahdollistaa jatkokehittämisen aloituksen. Kattavamman testauttamisen sisällyttäminen kehitysprosessiin olisi edesauttanut vielä paremman lopputuloksen saavuttamista.
Resumo:
The goal of the research was to investigate the energy performance of residential vertical buildings envelope in the hot and humid climate of Natal, capital of Rio Grande do Norte, based in the Technical Regulation of Quality for Energy Efficiency Level in Residential Buildings (RTQ -R), launched in 2010. The study pretends to contribute to the development of design strategies appropriate to the specific local climate and the increasing of energy efficiency level of the envelope. The methodological procedures included the survey in 22 (twenty two) residential buildings, the formulation of representative prototypes based on typological and constructives characters researched and the classification of the level of energy efficiency in the envelopment of these prototypes, using as a tool the prescriptive method of the RTQ-R and the parametric analyzes from assigning different values of the following variables: shape of the pavement type; distribution of housing compartments; orientation of the building; area and shading of openings; thermal transmittance, and solar absorptance of opaque materials of the frontage in order to evaluate the influence of these on the envelopment performance. The main results accomplished with this work includes the qualification of vertical residential buildings in Natal/RN; the verification of the adequacy of these buildings to local climate based from the diagnosis of the thermal energy of the envelopment performance, the identification of variables with more significant influence on the prescriptive methodology of RTQ-R and design solutions more favorable to obtain higher levels energy efficiency by this method. Finally, it was verified, that some of these solutions proved contradictory in relation to the recommendations contained in the theoretical approaches regarding environmental comfort in hot and humid weather, which indicates the need for improvement of the prescriptive method RTQ-R and further research on efficient design solutions
Resumo:
A inovação tecnológica e as facilidades que gera tem tido um impacto crescente em diversas área, inclusivamente na medicina. A rápida evolução por parte de algumas tecnologias, como é o caso da Realidade Aumentada (RA), criam excelentes oportunidades, nomeadamente para intervenções cirúrgicas laparoscópicas, que apresentam especialmente problemas ao nível da exposição do doente a radiação. O presente documento detalha todo o processo de investigação e desenvolvimento realizado com a pretensão de criar um sistema de navegação por RA que auxilie o procedimento cirúrgico laparoscópico de remoção de pedras nos rins. Com este objetivo em perspetiva, e numa parceria com a empresa ECmedica LTD, foram desenvolvidos quatro protótipo funcionais. Com o intuito de compreender as melhores práticas de sistemas de input, interface e sistema de registo a aplicar, estes integraram aspetos inovadores tais como a utilização de uma sonda ultra-som, como substituta do raioX, e um registo feito através de sensores magnéticos. Apoiados numa metodologia de design centrado no utilizador e em instrumentos de análise como entrevistas e observação natural, os protótipos foram testados, obtendo respostas esclarecedoras relativamente ao objetivos dos protótipos. Foi observado que a RA é vista pelos médicos como uma solução com potencial, com as soluções apresentadas ao nível de inputs, interface e registo a serem bem recebidas. A projeção bidimensional oferecida pela imagem ultra-som foi encarada como insuficientes, sendo sugerida a sua substituição por um aumento tridimensional capaz de facilitar a correta inserção da agulha.
Resumo:
Os avanços e a disseminação do uso das Tecnologias de Informação e Comunicação (TIC) descortinam novas perspetivas para a educação com suporte em ambientes digitais de aprendizagem usados via internet (Fiolhais & Trindade, 2003). A plataforma usada no Projeto Matemática Ensino (PmatE) da Universidade de Aveiro (UA) é uma das ferramentas informáticas que suporta esses ambientes através da avaliação baseada no Modelo Gerador de Questões (MGQ), possibilitando a obtenção da imagem do progresso feito pelos alunos (Vieira, Carvalho & Oliveira, 2004). Reconhecendo a importância didática desta ferramenta, já demonstrada noutras investigações (por exemplo, Carvalho, 2011; Pais de Aquino, 2013; Peixoto, 2009), o presente estudo tem como objetivo geral desenvolver material didático digital de Física, no contexto do programa moçambicano de Física da 12ª classe, para alunos e professores sobre radiações e conteúdos da Física Moderna. Pretendeu-se, ainda, propor estratégias de trabalho com recurso às TIC para a melhoria da qualidade das aprendizagens nesta disciplina. O estudo assentou nas três seguintes questões de investigação: (a) Como conceber instrumentos de avaliação das aprendizagens baseadas no modelo gerador de questões para o estudo das radiações e conteúdos da Física Moderna, no contexto do programa moçambicano de Física da 12ª classe? (b) Que potencialidades e constrangimentos apresentam esses instrumentos quando implementados com alunos e professores? (c) De que forma o conhecimento construído pode ser mobilizado para outros temas da Física e para o ensino das ciências em geral? O estudo seguiu uma metodologia de Estudos de Desenvolvimento, de natureza mista, que compreendeu as fases da Análise, Design, Desenvolvimento e Avaliação, seguindo como paradigma um estudo de cariz exploratório, com uma vertente de estudo de caso. Assim, na Análise, foi discutido o contexto da educação em Moçambique e a problemática da abordagem das radiações e conteúdos de Física Moderna no ensino secundário no quadro desafiante que se coloca atualmente à educação científica. No Design foram avaliadas as abordagens dasTIC no ensino e aprendizagem da Física e das ciências em geral e construída a árvore de objetivos nos conteúdos referidos na fase anterior. Na fase do Desenvolvimento foram construídos os instrumentos de recolha de dados, elaborados os protótipos de MGQ e sua posterior programação, validação e testagem em formato impresso no estudo exploratório. Na Avaliação, foi conduzido o estudo principal com a aplicação dos modelos no formato digital e feita sua avaliação, o que incluiu a administração de inquéritos por questionário a alunos e professores. Os resultados indicam que na conceção de MGQ, a definição dos objetivos de aprendizagem em termos comportamentais é fundamental na formulação de questões e na análise dos resultados da avaliação com o objetivo de reajustar as estratégias didáticas. Apontam também que a plataforma do PmatE que suporta os MGQ, embora possua constrangimentos devido a sua dependência da internet e limitações de ordem didática, contribui positivamente na aprendizagem e na identificação das dificuldades e principais erros dos alunos, por um lado. Por outro, estimula através da avaliação os processos de assimilação e acomodação do conhecimento. O estudo recomenda a necessidade de mudanças nas práticas de ensino e de aprendizagem para que seja possível a utilização de conteúdos digitais como complemento à abordagem didática de conteúdos.
Resumo:
Choosing a single similarity threshold for cutting dendrograms is not sufficient for performing hierarchical clustering analysis of heterogeneous data sets. In addition, alternative automated or semi-automated methods that cut dendrograms in multiple levels make assumptions about the data in hand. In an attempt to help the user to find patterns in the data and resolve ambiguities in cluster assignments, we developed MLCut: a tool that provides visual support for exploring dendrograms of heterogeneous data sets in different levels of detail. The interactive exploration of the dendrogram is coordinated with a representation of the original data, shown as parallel coordinates. The tool supports three analysis steps. Firstly, a single-height similarity threshold can be applied using a dynamic slider to identify the main clusters. Secondly, a distinctiveness threshold can be applied using a second dynamic slider to identify “weak-edges” that indicate heterogeneity within clusters. Thirdly, the user can drill-down to further explore the dendrogram structure - always in relation to the original data - and cut the branches of the tree at multiple levels. Interactive drill-down is supported using mouse events such as hovering, pointing and clicking on elements of the dendrogram. Two prototypes of this tool have been developed in collaboration with a group of biologists for analysing their own data sets. We found that enabling the users to cut the tree at multiple levels, while viewing the effect in the original data, is a promising method for clustering which could lead to scientific discoveries.
Resumo:
Physical places are given contextual meaning by the objects and people that make up the space. Presence in physical places can be utilised to support mobile interaction by making access to media and notifications on a smartphone easier and more visible to other people. Smartphone interfaces can be extended into the physical world in a meaningful way by anchoring digital content to artefacts, and interactions situated around physical artefacts can provide contextual meaning to private manipulations with a mobile device. Additionally, places themselves are designed to support a set of tasks, and the logical structure of places can be used to organise content on the smartphone. Menus that adapt the functionality of a smartphone can support the user by presenting the tools most likely to be needed just-in-time, so that information needs can be satisfied quickly and with little cognitive effort. Furthermore, places are often shared with people whom the user knows, and the smartphone can facilitate social situations by providing access to content that stimulates conversation. However, the smartphone can disrupt a collaborative environment, by alerting the user with unimportant notifications, or sucking the user in to the digital world with attractive content that is only shown on a private screen. Sharing smartphone content on a situated display creates an inclusive and unobtrusive user experience, and can increase focus on a primary task by allowing content to be read at a glance. Mobile interaction situated around artefacts of personal places is investigated as a way to support users to access content from their smartphone while managing their physical presence. A menu that adapts to personal places is evaluated to reduce the time and effort of app navigation, and coordinating smartphone content on a situated display is found to support social engagement and the negotiation of notifications. Improving the sensing of smartphone users in places is a challenge that is out-with the scope of this thesis. Instead, interaction designers and developers should be provided with low-cost positioning tools that utilise presence in places, and enable quantitative and qualitative data to be collected in user evaluations. Two lightweight positioning tools are developed with the low-cost sensors that are currently available: The Microsoft Kinect depth sensor allows movements of a smartphone user to be tracked in a limited area of a place, and Bluetooth beacons enable the larger context of a place to be detected. Positioning experiments with each sensor are performed to highlight the capabilities and limitations of current sensing techniques for designing interactions with a smartphone. Both tools enable prototypes to be built with a rapid prototyping approach, and mobile interactions can be tested with more advanced sensing techniques as they become available. Sensing technologies are becoming pervasive, and it will soon be possible to perform reliable place detection in-the-wild. Novel interactions that utilise presence in places can support smartphone users by making access to useful functionality easy and more visible to the people who matter most in everyday life.
Resumo:
This work presents a low cost architecture for development of synchronized phasor measurement units (PMU). The device is intended to be connected in the low voltage grid, which allows the monitoring of transmission and distribution networks. Developments of this project include a complete PMU, with instrumentation module for use in low voltage network, GPS module to provide the sync signal and time stamp for the measures, processing unit with the acquisition system, phasor estimation and formatting data according to the standard and finally, communication module for data transmission. For the development and evaluation of the performance of this PMU, it was developed a set of applications in LabVIEW environment with specific features that let analyze the behavior of the measures and identify the sources of error of the PMU, as well as to apply all the tests proposed by the standard. The first application, useful for the development of instrumentation, consists of a function generator integrated with an oscilloscope, which allows the generation and acquisition of signals synchronously, in addition to the handling of samples. The second and main, is the test platform, with capabality of generating all tests provided by the synchronized phasor measurement standard IEEE C37.118.1, allowing store data or make the analysis of the measurements in real time. Finally, a third application was developed to evaluate the results of the tests and generate calibration curves to adjust the PMU. The results include all the tests proposed by synchrophasors standard and an additional test that evaluates the impact of noise. Moreover, through two prototypes connected to the electrical installation of consumers in same distribution circuit, it was obtained monitoring records that allowed the identification of loads in consumer and power quality analysis, beyond the event detection at the distribution and transmission levels.
Resumo:
A oportunidade de produção de biomassa microalgal tem despertado interesse pelos diversos destinos que a mesma pode ter, seja na produção de bioenergia, como fonte de alimento ou servindo como produto da biofixação de dióxido de carbono. Em geral, a produção em larga escala de cianobactérias e microalgas é feita com acompanhamento através de análises físicoquímicas offline. Neste contexto, o objetivo deste trabalho foi monitorar a concentração celular em fotobiorreator raceway para produção de biomassa microalgal usando técnicas de aquisição digital de dados e controle de processos, pela aquisição de dados inline de iluminância, concentração de biomassa, temperatura e pH. Para tal fim foi necessário construir sensor baseado em software capaz de determinar a concentração de biomassa microalgal a partir de medidas ópticas de intensidade de radiação monocromática espalhada e desenvolver modelo matemático para a produção da biomassa microalgal no microcontrolador, utilizando algoritmo de computação natural no ajuste do modelo. Foi projetado, construído e testado durante cultivos de Spirulina sp. LEB 18, em escala piloto outdoor, um sistema autônomo de registro de informações advindas do cultivo. Foi testado um sensor de concentração de biomassa baseado na medição da radiação passante. Em uma segunda etapa foi concebido, construído e testado um sensor óptico de concentração de biomassa de Spirulina sp. LEB 18 baseado na medição da intensidade da radiação que sofre espalhamento pela suspensão da cianobactéria, em experimento no laboratório, sob condições controladas de luminosidade, temperatura e fluxo de suspensão de biomassa. A partir das medidas de espalhamento da radiação luminosa, foi construído um sistema de inferência neurofuzzy, que serve como um sensor por software da concentração de biomassa em cultivo. Por fim, a partir das concentrações de biomassa de cultivo, ao longo do tempo, foi prospectado o uso da plataforma Arduino na modelagem empírica da cinética de crescimento, usando a Equação de Verhulst. As medidas realizadas no sensor óptico baseado na medida da intensidade da radiação monocromática passante através da suspensão, usado em condições outdoor, apresentaram baixa correlação entre a concentração de biomassa e a radiação, mesmo para concentrações abaixo de 0,6 g/L. Quando da investigação do espalhamento óptico pela suspensão do cultivo, para os ângulos de 45º e 90º a radiação monocromática em 530 nm apresentou um comportamento linear crescente com a concentração, apresentando coeficiente de determinação, nos dois casos, 0,95. Foi possível construir um sensor de concentração de biomassa baseado em software, usando as informações combinadas de intensidade de radiação espalhada nos ângulos de 45º e 135º com coeficiente de determinação de 0,99. É factível realizar simultaneamente a determinação inline de variáveis do processo de cultivo de Spirulina e a modelagem cinética empírica do crescimento do micro-organismo através da equação de Verhulst, em microcontrolador Arduino.
Resumo:
Le but de ce projet est de développer une approche biomimétique pour augmenter l'absorption de molécules actives peu perméables. Cette approche réplique le mécanisme d'internalisation de la toxine du choléra par sa liaison au récepteur GM1 à la surface des cellules intestinales. La technologie proposée est de synthétiser des promédicaments composés d'une molécule active, d'un espaceur et d'un peptide ayant de l'affinité pour le GM1. Les hypothèses de ce projet sont que le peptide faisant partie du promédicament augmentera l'absorption intestinale de médicaments peu perméables et que le complexe sera métabolisé rapidement après son absorption. Des prototypes de promédicaments ont été synthétisés et des essais de stabilité, d'affinité et de perméabilité sur les peptides et les promédicaments ont été développés et réalisés. Les résultats de cette étude ont démontré la possibilité de synthétiser des promédicaments à partir d'un peptide liant le GM1 et d'une molécule thérapeutique ayant une faible biodisponibilité. Les essais de stabilité, d'affinité et de perméabilité ont été optimisés et implémentés avec succès. Les études in vitro initiales ont rapporté des résultats prometteurs concernant les propriétés de liaison du peptide utilisé et d'un des promédicaments préparés. Par contre, les résultats des essais de stabilité ont montré un métabolisme partiel des promédicament dans le plasma ainsi qu'une instabilité des solutions mères. De plus, les essais de perméabilité se sont avérés non concluants. Les prochaines études porteront sur la préparation de nouveaux promédicaments par une approche similaire ainsi que sur l'investigation du mécanisme d'internalisation du peptide.
Resumo:
The international Argo program, consisting of a global array of more than 3000 free-drifting profiling floats, has now been monitoring the upper 2000 meters of the ocean for several years. One of its main proposed evolutions is to be able to reach the deeper ocean in order to better observe and understand the key role of the deep ocean in the climate system. For this purpose, Ifremer has designed the new “Deep-Arvor” profiling float: it extends the current operational depth down to 4000 meters, and measures temperature and salinity for up to 150 cycles with CTD pumping continuously and 200 cycles in spot sampling mode. High resolution profiles (up to 2000 points) can be transmitted and data are delivered in near real time according to Argo requirements. Deep-Arvor can be deployed everywhere at sea without any pre-ballasting operation and its light weight (~ 26kg) makes its launching easy. Its design was done to target a cost effective solution. Predefined spots have been allocated to add an optional oxygen sensor and a connector for an extra sensor. Extensive laboratory tests were successful. The results of the first at sea experiments showed that the expected performances of the operational prototypes had been reached (i.e. to perform up to 150 cycles). Meanwhile, the industrialization phase was completed in order to manufacture the Deep-Arvor float for the pilot experiment in 2015. In this paper, we detail all the steps of the development work and present the results from the at sea experiments.
Resumo:
Odour impacts and concerns are an impediment to the growth of the Australian chicken meat industry. To manage these, the industry has to be able to demonstrate the efficacy of its odour reduction strategies scientifically and defensibly; however, it currently lacks reliable, cost effective and objective tools to do so. This report describes the development of an artificial olfaction system (AOS) to measure meat chicken farm odour. This report describes the market research undertaken to determine the demand for such a tool, the development and evaluation of three AOS prototypes, data analysis and odour prediction modelling, and the development of two complementary odour measurement tools, namely, a volatile organic compound (VOC) pre-concentrator and a field olfactometer. This report is aimed at investors in poultry odour research and those charged with, or interested in, assessment of odour on chicken farms, including farm managers, integrators, their consultants, regulators and researchers. The findings will influence the focus of future environmental odour measurement research.
Desenvolvimento de indicadores enzimáticos inteligentes para monitoramento da qualidade de alimentos
Resumo:
A dificuldade em conhecer o histórico de temperatura de um alimento, desde sua produção até o consumo, torna difícil prever sua verdadeira vida-útil. O uso de indicadores de tempo e temperatura (ITT) pode ser uma alternativa inovadora empregada para garantir a validade de produtos de forma dinâmica. Assim, este trabalho visa desenvolver novos indicadores enzimáticos de tempo e temperatura para monitorar a qualidade de alimentos perecíveis durante o seu processamento e armazenamento, baseados na reação de complexação entre o amido e o iodo (azul), e na posterior atuação de uma enzima amilase sobre esse complexo, para causar uma redução da intensidade da cor azul a uma taxa dependente do tempo e da temperatura de armazenagem. Os sistemas inteligentes propostos possuem versatilidade de atuação em função do tipo e quantidade de amilase empregada. Desta forma, foi utilizada uma amilase termoestável para a formulação de um indicador inteligente de processamento, utilizado para o controle de tratamentos térmicos industriais (pasteurização);e uma amilase termosensível na formulação de um indicador de armazenamento, empregada para o controle das condições de temperatura durante a cadeia de frio de produtos perecíveis. Na elaboração dos ITT de processamento foram realizadas simulações em laboratório e testes em planta fabril, os quais avaliaram diferentes concentrações de amilase termoestável nos protótipos de ITT quando submetidos as condições de tempo e temperatura de pasteurização. Os resultados evidenciaram que a resposta de cor dos indicadores foi visualmente interpretada, como adaptável à medição usando equipamentos, apresentando boa reprodutibilidade em todas as condições estudadas. O ITT contendo 6,5 % de amilase termoestável (penzima/pamido) foi aquele cujo resultado melhor se adequou à utilização na validação de cozimento de presunto. Nesta condição, o protótipo anexado à embalagem primária do produto indicou o processo de pasteurização de forma fácil, precisa e não destrutiva. Já durante o desenvolvimento do ITT de armazenamento foram realizadas simulações em laboratório, testes em planta fabril e ponto de venda, os quais avaliaram o uso de diferentes concentrações de amilase termosensível nos protótipos de ITT quando submetidos a diversas condições de cadeia de frio. Os resultados evidenciaram que devido à possibilidade de definir a vida-útil destes protótipos variando as concentrações de enzima termosensível, os indicadores podem ser facilmente adaptados para controlar as condições de temperatura durante a cadeia de diversos alimentos perecíveis. O protótipo contendo 60 % de amilase termosensível (penzima/pamido) foi aquele cujo resultado melhor se adequou à utilização no controle da cadeia avícola. Assim, o ITT indicou visualmente o histórico de tempo e temperatura de produtos à base de frango de forma fácil e precisa. Os resultados obtidos na avaliação das percepções dos consumidores frente ao emprego de indicadores inteligentes em embalagens alimentícias mostraram que o uso de ITT é uma inovação receptiva, com consequente aceitação e intenção de compra elevada pela população brasileira. Assim, com este trabalho espera-se contribuir efetivamente para que o conceito de embalagens inteligentes possa ser aceito comercialmente e que sejam estabelecidas no Brasil normas que regulamentem seu uso, conferindo benefícios à conservação de grande variedade de alimentos.
Resumo:
This study aims to provide foreigns languages professionals with a sound methodology for selecting a suitable lexicon apropos of their students’ level in the language. The justification of said selection is, herein, rooted in a cognitive argument: If we are able to observe the manner in which words are organized within the mind, we will be better able to select the words needed for the natural process of communication. After poring over lists of lexical availability compiled by previous analyses, this study puts forth a glossary filtered by way of an objective procedure based on the mathematical concept known as Fuzzy Expected Value. I begin first by rigorously defining the concept of lexical availability and then thoroughly examining and explaining the manner in which I have obtained the results. Next, I employ the cognitive theory of prototypes to expound upon the organizational apparatus which arranges words within speakers’ minds. Subsequently and in accordance with objective criteria, a lexical selection is proposed. To end, I contemplate and muse upon the significance of a program that would enable us to identify the most appropriate vocabulary according to the students’ level of linguistic competence. In order to further substantiate this study, it will be juxtaposed to the specific notions outlined by the curriculum of The Cervantes Institute. Moreover, it will be relationed with the teaching levels proposed by American Council on the Teaching of Foreign Languages (ACTFL) and Common European Framework of Reference for Languages (CEFR).