850 resultados para TCP routers


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente lavoro di tesi si inserisce all'interno di un progetto accademico volto alla realizzazione di un sistema capace elaborare immagini utilizzando una rete FPGA, acquisite da un sensore. Ogni scrittura di un nuovo frame in memoria RAM genera un interrupt. L'obiettivo della tesi è creare un sistema client/server che permetta il trasferimento del flusso di frame dalla ZedBoard a un PC e la visualizzazione a video. Il progetto eseguito sulla ZedBoard è proposto in due versioni: la prima in assenza di sistema operativo (Standalone) e una seconda implementata su Linux. Il progetto eseguito sul PC è compatibile con Linux e Windows. La visualizzazione delle immagini è implementata utilizzando la libreria OpenCV.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro consiste nella realizzazione di un'interfaccia utente adibita all'assegnamento di missioni e al monitoraggio remoto di un rover agricolo autonomo. Sfruttando l'informatica per la sua implementazione, tale interfaccia trova invece applicazione nel campo dell'automazione e dell'agricoltura di precisione. L'utilizzatore ha perciò la facoltà di muovere il rover in campo aperto e di demandargli missioni specifiche, ricevendo allo stesso tempo un feedback continuo sul suo operato. L'applicativo software comunica quindi in maniera bidirezionale con il veicolo controllato ed è predisposto per sfruttare diversi canali di comunicazione (antenne seriali, pacchetti udp, socket tcp). La scrittura del codice è stata seguita da una serie di prove di comunicazione con il veicolo, effettuate indoor, e infine da alcuni test completi effettuati outdoor, con il rover in movimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sono dette “challenged networks” quelle reti in cui lunghi ritardi, frequenti partizionamenti e interruzioni, elevati tassi di errore e di perdita non consentono l’impiego dei classici protocolli di comunicazione di Internet, in particolare il TCP/IP. Il Delay-/Disruption-Tolerant Networking (DTN) è una soluzione per il trasferimento di dati attraverso queste reti. L’architettura DTN prevede l’introduzione, sopra il livello di trasporto, del cosiddetto “bundle layer”, che si occupa di veicolare messaggi, o bundle, secondo l’approccio store-and-forward: ogni nodo DTN conserva persistentemente un bundle finché non si presenta l’opportunità di inoltrarlo al nodo successivo verso la destinazione. Il protocollo impiegato nel bundle layer è il Bundle Protocol, le cui principali implementazioni sono tre: DTN2, l’implementazione di riferimento; ION, sviluppata da NASA-JPL e più orientata alle comunicazioni spaziali; IBR-DTN, rivolta soprattutto a dispositivi embedded. Ciascuna di esse offre API che consentono la scrittura di applicazioni in grado di inviare e ricevere bundle. DTNperf è uno strumento progettato per la valutazione delle prestazioni in ambito DTN. La più recente iterazione, DTNperf_3, è compatibile sia con DTN2 che con ION nella stessa versione del programma, grazie all’introduzione di un “Abstraction Layer” che fornisce un’unica interfaccia per l’interazione con le diverse implementazioni del Bundle Protocol e che solo internamente si occupa di invocare le API specifiche dell’implementazione attiva. Obiettivo della tesi è estendere l’Abstraction Layer affinché supporti anche IBR-DTN, cosicché DTNperf_3 possa essere impiegato indifferentemente su DTN2, ION e IBR DTN. Il lavoro sarà ripartito su tre fasi: nella prima esploreremo IBR DTN e le sue API; nella seconda procederemo all’effettiva estensione dell’Abstraction Layer; nella terza verificheremo il funzionamento di DTNperf a seguito delle modifiche, sia in ambiente esclusivamente IBR-DTN, sia ibrido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Current and future applications pose new requirements that Internet architecture is not able to satisfy, like Mobility, Multicast, Multihoming, Bandwidth Guarantee and so on. The Internet architecture has some limitations which do not allow all future requirements to be covered. New architectures were proposed considering these requirements when a communication is established. ETArch (Entity Title Architecture) is a new Internet architecture, clean slate, able to use application’s requirements on each communication, and flexible to work with several layers. The Routing has an important role on Internet, because it decides the best way to forward primitives through the network. In Future Internet, all requirements depend on the routing. Routing is responsible for deciding the best path and, in the future, a better route can consider Mobility aspects or Energy Consumption, for instance. In the dawn of ETArch, the Routing has not been defined. This work provides intra and inter-domain routing algorithms to be used in the ETArch. It is considered that the route should be defined completely before the data start to traffic, to ensure that the requirements are met. In the Internet, the Routing has two distinct functions: (i) run specific algorithms to define the best route; and (ii) to forward data primitives to the correct link. In traditional Internet architecture, the two Routing functions are performed in all routers everytime that a packet arrives. This work allows that the complete route is defined before the communication starts, like in the telecommunication systems. This work determined the Routing for ETArch and experiments were performed to demonstrate the control plane routing viability. The initial setup before a communication takes longer, then only forwarding of primitives is performed, saving processing time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Erasure control coding has been exploited in communication networks with an aim to improve the end-to-end performance of data delivery across the network. To address the concerns over the strengths and constraints of erasure coding schemes in this application, we examine the performance limits of two erasure control coding strategies, forward erasure recovery and adaptive erasure recovery. Our investigation shows that the throughput of a network using an (n, k) forward erasure control code is capped by r =k/n when the packet loss rate p ≤ (te/n) and by k(l-p)/(n-te) when p > (t e/n), where te is the erasure control capability of the code. It also shows that the lower bound of the residual loss rate of such a network is (np-te)/(n-te) for (te/n) < p ≤ 1. Especially, if the code used is maximum distance separable, the Shannon capacity of the erasure channel, i.e. 1-p, can be achieved and the residual loss rate is lower bounded by (p+r-1)/r, for (1-r) < p ≤ 1. To address the requirements in real-time applications, we also investigate the service completion time of different schemes. It is revealed that the latency of the forward erasure recovery scheme is fractionally higher than that of the scheme without erasure control coding or retransmission mechanisms (using UDP), but much lower than that of the adaptive erasure scheme when the packet loss rate is high. Results on comparisons between the two erasure control schemes exhibit their advantages as well as disadvantages in the role of delivering end-to-end services. To show the impact of the bounds derived on the end-to-end performance of a TCP/IP network, a case study is provided to demonstrate how erasure control coding could be used to maximize the performance of practical systems. © 2010 IEEE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Network simulation is an indispensable tool for studying Internet-scale networks due to the heterogeneous structure, immense size and changing properties. It is crucial for network simulators to generate representative traffic, which is necessary for effectively evaluating next-generation network protocols and applications. With network simulation, we can make a distinction between foreground traffic, which is generated by the target applications the researchers intend to study and therefore must be simulated with high fidelity, and background traffic, which represents the network traffic that is generated by other applications and does not require significant accuracy. The background traffic has a significant impact on the foreground traffic, since it competes with the foreground traffic for network resources and therefore can drastically affect the behavior of the applications that produce the foreground traffic. This dissertation aims to provide a solution to meaningfully generate background traffic in three aspects. First is realism. Realistic traffic characterization plays an important role in determining the correct outcome of the simulation studies. This work starts from enhancing an existing fluid background traffic model by removing its two unrealistic assumptions. The improved model can correctly reflect the network conditions in the reverse direction of the data traffic and can reproduce the traffic burstiness observed from measurements. Second is scalability. The trade-off between accuracy and scalability is a constant theme in background traffic modeling. This work presents a fast rate-based TCP (RTCP) traffic model, which originally used analytical models to represent TCP congestion control behavior. This model outperforms other existing traffic models in that it can correctly capture the overall TCP behavior and achieve a speedup of more than two orders of magnitude over the corresponding packet-oriented simulation. Third is network-wide traffic generation. Regardless of how detailed or scalable the models are, they mainly focus on how to generate traffic on one single link, which cannot be extended easily to studies of more complicated network scenarios. This work presents a cluster-based spatio-temporal background traffic generation model that considers spatial and temporal traffic characteristics as well as their correlations. The resulting model can be used effectively for the evaluation work in network studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this study was to determine the haematological value and biochemical blood in baby alpacas with enteric disorder. A total of 30 blood and serum samples were collected from alpacas of 1 month old with diarrhoea and 5 blood samples of clinically healthy baby alpacas (controls). The animals were from communities in the central Andes from Peru. About haematology were determined haematocrit, haemoglobin concentration, red blood count and white blood count that were not significantly different between control animals and animals with diarrhoea. Moreover, biochemical blood parameters as total protein, albumin and calcium decrease significantly (p<0.05). We conclude that our results could be considered as factors in the mortality of baby alpaca by infectious diarrhoea.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many cloud-based applications employ a data centre as a central server to process data that is generated by edge devices, such as smartphones, tablets and wearables. This model places ever increasing demands on communication and computational infrastructure with inevitable adverse effect on Quality-of-Service and Experience. The concept of Edge Computing is predicated on moving some of this computational load towards the edge of the network to harness computational capabilities that are currently untapped in edge nodes, such as base stations, routers and switches. This position paper considers the challenges and opportunities that arise out of this new direction in the computing landscape.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : Le diabète de type 2 est une maladie évolutive débilitante et souvent mortelle qui atteint de plus en plus de personnes dans le monde. Le traitement antidiabétique non-insulinique (TADNI) notamment le traitement antidiabétique oral (TADO) est le plus fréquemment utilisé chez les adultes atteints de cette maladie. Toutefois, plusieurs de ces personnes ne prennent pas leur TADO tel que prescrit posant ainsi la problématique d’une adhésion sous-optimale. Ceci entraîne des conséquences néfastes aussi bien pour les patients que pour la société dans laquelle ils vivent. Il serait donc pertinent d’identifier des pistes de solution à cette problématique. Objectifs : Trois objectifs de recherche ont été étudiés : 1) Explorer la capacité de la théorie du comportement planifié (TCP) à prédire l’adhésion future au TADNI chez les adultes atteints de diabète de type 2, 2) Évaluer l’efficacité globale des interventions visant à améliorer l’adhésion au TADO chez les adultes atteints de diabète de type 2 et étudier l’influence des techniques de changement de comportement sur cette efficacité globale, et 3) Évaluer l’efficacité globale de l’entretien motivationnel sur l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique et étudier l’influence des caractéristiques de cette intervention sur son efficacité globale. Méthodes : Pour l’objectif 1 : Il s’agissait d’une enquête web, suivie d’une évaluation de l’adhésion au TADNI sur une période de 30 jours, chez des adultes atteints de diabète de type 2, membres de Diabète Québec. L’enquête consistait à la complétion d’un questionnaire auto-administré incluant les variables de la TCP (intention, contrôle comportemental perçu et attitude) ainsi que d’autres variables dites «externes». Les informations relatives au calcul de l’adhésion provenaient des dossiers de pharmacie des participants transmis via la plateforme ReMed. Une régression linéaire multivariée a été utilisée pour estimer la mesure d’association entre l’intention et l’adhésion future au TADNI ainsi que l’interaction entre l’adhésion passée et l’intention. Pour répondre aux objectifs 2 et 3, deux revues systématiques et méta-analyses ont été effectuées et rapportées selon les lignes directrices de PRISMA. Un modèle à effets aléatoires a été utilisé pour estimer l’efficacité globale (g d’Hedges) des interventions et son intervalle de confiance à 95 % (IC95%) dans chacune des revues. Nous avons également quantifié l’hétérogénéité (I2 d’Higgins) entre les études, et avons fait des analyses de sous-groupe et des analyses de sensibilité. Résultats : Objectif 1 : Il y avait une interaction statistiquement significative entre l’adhésion passée et l’intention (valeur-p= 0,03). L’intention n’était pas statistiquement associée à l’adhésion future au TADNI, mais son effet était plus fort chez les non-adhérents que chez les adhérents avant l’enquête web. En revanche, l’intention était principalement prédite par le contrôle comportemental perçu à la fois chez les adhérents [β= 0,90, IC95%= (0,80; 1,00)] et chez les non-adhérents passés [β= 0,76, IC95%= (0,56; 0,97)]. Objectif 2 : L’efficacité globale des interventions sur l’adhésion au TADO était de 0,21 [IC95%= (-0,05; 0,47); I2= 82 %]. L’efficacité globale des interventions dans lesquelles les intervenants aidaient les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables était de 0,64 [IC95%= (0,31; 0,96); I2= 56 %]. Objectif 3 : L’efficacité globale des interventions (basées sur l’entretien motivationnel) sur l’adhésion au traitement médicamenteux était de 0,12 [IC95%= (0,05; 0,20); I2= 1 %. Les interventions basées uniquement sur l’entretien motivationnel [β= 0,18, IC95%= (0,00; 0,36)] et celles dans lesquelles les intervenants ont été coachés [β= 0,47, IC95%= (0,03; 0,90)] étaient les plus efficaces. Aussi, les interventions administrées en face-à-face étaient plus efficaces que celles administrées par téléphone [β= 0,27, IC95%=(0,04; 0,50)]. Conclusion : Il existe un écart entre l’intention et l’adhésion future au TADNI, qui est partiellement expliqué par le niveau d’adhésion passée. Toutefois, il n’y avait pas assez de puissance statistique pour démontrer une association statistiquement significative entre l’intention et l’adhésion future chez les non-adhérents passés. D’un autre côté, quelques solutions au problème de l’adhésion sous-optimale au TADO ont été identifiées. En effet, le fait d’aider les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables contribue efficacement à l’amélioration de l’adhésion au TADO chez les adultes atteints de diabète de type 2. Aussi, les interventions basées sur l’entretien motivationnel améliorent efficacement l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique. L’entretien motivationnel pourrait donc être utilisé comme un outil clinique pour soutenir les patients dans l’autogestion de leur TADO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O principal objectivo desta investigação foi o desenvolvimento cimentos de fosfatos de cálcio com injetabilidade melhorada e propriedades mecânicas adequadas para aplicação em vertebroplastia. Os pós de fosfato de tricálcico (TCP) não dopados e dopados (Mg, Sr e Mn) usados neste estudo foram obtidos pelo processo de precipitação em meio aquoso, seguidos de tratamento térmico de forma a obter as fases pretendidas, α− e β−TCP. A substituição parcial de iões Ca por iões dopantes mostrou ter implicações em termos de estabilidade térmica da fase β−TCP. Os resultados demonstraram que as transformações de fase alotrópicas β↔α−TCP são fortemente influenciadas por variáveis experimentais como a taxa de arrefecimento, a presença de impurezas de pirofosfato de cálcio e a extensão do grau de dopagem com Mg. Os cimentos foram preparados através da mistura de pós, β−TCP (não dopados e dopados) e fosfato monocálcico monidratado (MCPM), com meios líquidos diferentes usando ácido cítrico e açucares (sucrose e frutose) como agentes retardadores de presa, e o polietilenoglicol, a hidroxipropilmetilcelulose e a polivinilpirrolidona como agentes gelificantes. Estes aditivos, principalmente o ácido cítrico, e o MCPM aumentam significativamente a força iónica do meio, influenciando a injetabilidade das pastas. Os resultados também mostraram que a distribuição de tamanho de partícula dos pós é um factor determinante na injetabilidade das pastas cimentícias. A combinação da co-dopagem de Mn e Sr com a adição de sucrose no líquido de presa e com uma distribuição de tamanho de partícula dos pós adequada resultou em cimentos de brushite com propriedades bastante melhoradas em termos de manuseamento, microestrutura, comportamento mecânico e biológico: (i) o tempo inicial de presa passou de ~3 min to ~9 min; (ii) as pastas cimentícias foram totalmente injectadas para uma razão liquido/pó de 0.28 mL g−1 com ausência do efeito de “filter-pressing” (separação de fases líquida e sólida); (iii) após imersão numa solução durante 48 h, as amostras de cimento molhadas apresentam uma porosidade total de ~32% e uma resistência a compressão de ~17 MPa, valor muito superior ao obtido para os cimentos sem açúcar não dopados (5 MPa) ou dopados só com Sr (10 MPa); e (iv) o desempenho biológico, incluindo a adesão e crescimento de células osteoblásticas na superfície do cimento, foi muito melhorado. Este conjunto de propriedades torna os cimentos excelentes para regeneração óssea e engenharia de tecidos, e muito promissores para aplicação em vertebroplastia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Secure transmission of bulk data is of interest to many content providers. A commercially-viable distribution of content requires technology to prevent unauthorised access. Encryption tools are powerful, but have a performance cost. Without encryption, intercepted data may be illicitly duplicated and re-sold, or its commercial value diminished because its secrecy is lost. Two technical solutions make it possible to perform bulk transmissions while retaining security without too high a performance overhead. These are: 1. a) hierarchical encryption - the stronger the encryption, the harder it is to break but also the more computationally expensive it is. A hierarchical approach to key exchange means that simple and relatively weak encryption and keys are used to encrypt small chunks of data, for example 10 seconds of video. Each chunk has its own key. New keys for this bottom-level encryption are exchanged using a slightly stronger encryption, for example a whole-video key could govern the exchange of the 10-second chunk keys. At a higher level again, there could be daily or weekly keys, securing the exchange of whole-video keys, and at a yet higher level, a subscriber key could govern the exchange of weekly keys. At higher levels, the encryption becomes stronger but is used less frequently, so that the overall computational cost is minimal. The main observation is that the value of each encrypted item determines the strength of the key used to secure it. 2. b) non-symbolic fragmentation with signal diversity - communications are usually assumed to be sent over a single communications medium, and the data to have been encrypted and/or partitioned in whole-symbol packets. Network and path diversity break up a file or data stream into fragments which are then sent over many different channels, either in the same network or different networks. For example, a message could be transmitted partly over the phone network and partly via satellite. While TCP/IP does a similar thing in sending different packets over different paths, this is done for load-balancing purposes and is invisible to the end application. Network and path diversity deliberately introduce the same principle as a secure communications mechanism - an eavesdropper would need to intercept not just one transmission path but all paths used. Non-symbolic fragmentation of data is also introduced to further confuse any intercepted stream of data. This involves breaking up data into bit strings which are subsequently disordered prior to transmission. Even if all transmissions were intercepted, the cryptanalyst still needs to determine fragment boundaries and correctly order them. These two solutions depart from the usual idea of data encryption. Hierarchical encryption is an extension of the combined encryption of systems such as PGP but with the distinction that the strength of encryption at each level is determined by the "value" of the data being transmitted. Non- symbolic fragmentation suppresses or destroys bit patterns in the transmitted data in what is essentially a bit-level transposition cipher but with unpredictable irregularly-sized fragments. Both technologies have applications outside the commercial and can be used in conjunction with other forms of encryption, being functionally orthogonal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Graças ao aumento da esperança média de vida do ser humano, a engenharia de tecidos tem sido uma área alvo de enorme investigação. A utilização de estruturas tridimensionais porosas e biodegradáveis, denominadas de scaffolds, como matriz para a adesão e proliferação celular tem sido amplamente investigada. Existem atualmente diversas técnicas para a produção destas estruturas mas o grau de exigência tem vindo a aumentar, existindo ainda lacunas que necessitam ser preenchidas. A técnica de robocasting consiste numa deposição camada a camada de uma pasta coloidal, seguindo um modelo computorizado (CAD) e permite a produção de scaffolds com porosidade tamanho de poro e fração de porosidade controlados, boa reprodutibilidade, e com formas variadas, as quais podem ser idênticas às dos defeitos ósseos a preencher. O presente estudo teve como objetivo produzir scaffolds porosos à base de fosfatos de cálcio através de robocasting. Para tal, foram estudadas duas composições de pós à base de β-TCP, uma pura e outra co-dopada com estrôncio, zinco e manganês. Inicialmente os pós foram sintetizados pelo método de precipitação química por via húmida. Após a síntese, estes foram filtrados, secos, calcinados a 1000ºC e posteriormente moídos até possuírem um tamanho médio de partícula de cerca de 1,5 μm. Os pós foram depois peneirados com uma malha de 40μm e caracterizados. Posteriormente foram preparadas várias suspensões e avaliado o seu comportamento reológico, utilizando Targon 1128 como dispersante, Hidroxipropilmetilcelulose (HPMC) como ligante e polietilenimina (PEI) como agente floculante. Por fim, e escolhida a melhor composição para a formação da pasta, foram produzidos scaffolds com diferentes porosidades, num equipamento de deposição robótica (3D Inks, LLC). Os scaffolds obtidos foram secos à temperatura ambiente durante 48 horas, sinterizados a 1100ºC e posteriormente caracterizados por microscopia eletrónica de varrimento (SEM), avaliação dos tamanhos de poro, porosidade total e testes mecânicos. Ambas as composições estudadas puderam ser transformadas em pastas extrudíveis, mas a pasta da composição pura apresentou uma consistência mais próxima do ideal, tendo originado scaffolds de melhor qualidade em termos de microestrutura e de propriedades mecânicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anchoíta (Engraulis anchoita) é uma espécie pelágica encontrada no Sudoeste do Oceano Atlântico. Estima-se que 135000 toneladas/ano desse peixe possam ser exploradas ao longo do litoral sul do Brasil. Entretanto, os recursos pesqueiros do país são ainda inexplorados, o que torna esta matéria prima candidata em potencial para a fabricação de novos produtos a base desse pescado. Com o apoio de programas governamentais sociais, a tendência para o Brasil é para o desenvolvimento de produtos de anchoíta alternativos e que sejam capazes de suprir as necessidades específicas de cada grupo de consumo alvo. Dentro desse cenário, um estudo de novos produtos de pescado frente ao mercado se faz necessário, na tentativa de compreender as variáveis influentes do setor. Para tanto, na presente tese teve objetivou-se desenvolver produtos à base de anchoíta e estudar o comportamento do mercado consumidor frente a esses novos produtos de pescado. Um total de seis artigos foi gerado. O primeiro artigo intitulou-se: “Potencial de inserção de empanados de pescado na merenda escolar mediante determinantes individuais”. Neste objetivou-se detectar os determinantes individuais do consumo de pescado com adolescentes em idade de 12 a 17 anos, visando à inserção de empanados de pescado na merenda escolar. Foi verificado que as variáveis que melhor discriminaram a frequência de consumo foram “gosta de pescado” e “grau de escolaridade dos pais”. Os resultados indicaram um potencial de consumo de empanados de pescado por adolescentes, associado à necessidade de educação alimentar. O segundo artigo “Elaboração de hambúrguer a partir de base proteica de anchoíta (Engraulis anchoita)” no qual se objetivou avaliar o efeito de diferentes combinações de solventes para a obtenção de base proteica de anchoíta visando à elaboração de hambúrguer de pescado. As lavagens com ácido fosfórico e mais dois ciclos de água foram as que apresentaram os melhores valores para a obtenção da base proteica, baseando-se na remoção de nitrogenados e respostas sensoriais. No terceiro artigo “Aceitação de empanados de pescado (Engraulis anchoita) na merenda escolar no extremo sul do Brasil” o objetivo foi avaliar a aceitação de empanados de pescado (Engraulis anchoita) com alunos (n = 830) da rede pública de ensino, em idades entre 5 e 18 anos, de duas cidades do estado do Rio Grande do Sul, Brasil. Os resultados indicaram relação inversa entre a aceitação de empanados de pescado e o aumento da idade das crianças. O quarto artigo estudou “Razões subjacentes ao baixo consumo de pescado pelo consumidor brasileiro.” Neste objetivou-se investigar o comportamento referente ao consumo de pescado de uma população com baixo consumo de pescado (Brasil), aplicando a Teoria do Comportamento Planejado (TCP). Os resultados indicaram que tanto a intenção como a atitude provou serem determinantes significativos na frequência de comer pescado, sendo a atitude inversamente correlacionada com o consumo de pescado. Hábito apareceu como uma importante variável discriminante para o consumo de pescado. O quinto artigo intitula-se “Modelagem de equações estruturais e associação de palavras como ferramentas para melhor compreensão do baixo consumo de pescado”. O objetivo foi desenvolver um modelo e explicar o conjunto das relações entre os construtos do consumo de pescado em uma população com baixo consumo de pescado (Brasil) através da aplicação da TCP e pelo Questionário das Escolhas dos Alimentos. Além disso, a percepção cognitiva de produtos de pescado (Engraulis anchoíta) foi avaliada pela mesma população. Os resultados indicaram um bom ajuste para o modelo proposto e mostraram que os construtos “saúde” e “controle de peso” são bons preditores da intenção. A técnica associação de palavras provou ser um método útil para a análise de percepção de um novo produto de pescado, além de ajudar a explicar os resultados obtidos pelas equações estruturais. O sexto e último artigo “Percepção de saudável em produtos de pescado em uma população com alto consumo de pescado. Uma investigação por eye tracking” em que se objetivou explorar o uso do método eye tracking para estudar a percepção de saudável em diferentes produtos de pescado. Dois pontos importantes podem ser salientados como influentes na percepção de saudável: produtos de pescado processados e alimentos fritos.