9 resultados para Penetration
em Repositório Institucional da Universidade de Aveiro - Portugal
Resumo:
Na última década tem-se assistido a um crescimento exponencial das redes de comunicações sem fios, nomeadamente no que se refere a taxa de penetração do serviço prestado e na implementação de novas infra-estruturas em todo o globo. É ponto assente neste momento que esta tendência irá não só continuar como se fortalecer devido à convergência que é esperada entre as redes móveis sem fio e a disponibilização de serviços de banda larga para a rede Internet fixa, numa evolução para um paradigma de uma arquitectura integrada e baseada em serviços e aplicações IP. Por este motivo, as comunicações móveis sem fios irão ter um papel fundamental no desenvolvimento da sociedade de informação a médio e longo prazos. A estratégia seguida no projecto e implementação das redes móveis celulares da actual geração (2G e 3G) foi a da estratificação da sua arquitectura protocolar numa estrutura modular em camadas estanques, onde cada camada do modelo é responsável pela implementação de um conjunto de funcionalidades. Neste modelo a comunicação dá-se apenas entre camadas adjacentes através de primitivas de comunicação pré-estabelecidas. Este modelo de arquitectura resulta numa mais fácil implementação e introdução de novas funcionalidades na rede. Entretanto, o facto das camadas inferiores do modelo protocolar não utilizarem informação disponibilizada pelas camadas superiores, e vice-versa acarreta uma degradação no desempenho do sistema. Este paradigma é particularmente importante quando sistemas de antenas múltiplas são implementados (sistemas MIMO). Sistemas de antenas múltiplas introduzem um grau adicional de liberdade no que respeita a atribuição de recursos rádio: o domínio espacial. Contrariamente a atribuição de recursos no domínio do tempo e da frequência, no domínio espacial os recursos rádio mapeados no domínio espacial não podem ser assumidos como sendo completamente ortogonais, devido a interferência resultante do facto de vários terminais transmitirem no mesmo canal e/ou slots temporais mas em feixes espaciais diferentes. Sendo assim, a disponibilidade de informação relativa ao estado dos recursos rádio às camadas superiores do modelo protocolar é de fundamental importância na satisfação dos critérios de qualidade de serviço exigidos. Uma forma eficiente de gestão dos recursos rádio exige a implementação de algoritmos de agendamento de pacotes de baixo grau de complexidade, que definem os níveis de prioridade no acesso a esses recursos por base dos utilizadores com base na informação disponibilizada quer pelas camadas inferiores quer pelas camadas superiores do modelo. Este novo paradigma de comunicação, designado por cross-layer resulta na maximização da capacidade de transporte de dados por parte do canal rádio móvel, bem como a satisfação dos requisitos de qualidade de serviço derivados a partir da camada de aplicação do modelo. Na sua elaboração, procurou-se que o standard IEEE 802.16e, conhecido por Mobile WiMAX respeitasse as especificações associadas aos sistemas móveis celulares de quarta geração. A arquitectura escalonável, o baixo custo de implementação e as elevadas taxas de transmissão de dados resultam num processo de multiplexagem de dados e valores baixos no atraso decorrente da transmissão de pacotes, os quais são atributos fundamentais para a disponibilização de serviços de banda larga. Da mesma forma a comunicação orientada à comutação de pacotes, inenente na camada de acesso ao meio, é totalmente compatível com as exigências em termos da qualidade de serviço dessas aplicações. Sendo assim, o Mobile WiMAX parece satisfazer os requisitos exigentes das redes móveis de quarta geração. Nesta tese procede-se à investigação, projecto e implementação de algoritmos de encaminhamento de pacotes tendo em vista a eficiente gestão do conjunto de recursos rádio nos domínios do tempo, frequência e espacial das redes móveis celulares, tendo como caso prático as redes móveis celulares suportadas no standard IEEE802.16e. Os algoritmos propostos combinam métricas provenientes da camada física bem como os requisitos de qualidade de serviço das camadas superiores, de acordo com a arquitectura de redes baseadas no paradigma do cross-layer. O desempenho desses algoritmos é analisado a partir de simulações efectuadas por um simulador de sistema, numa plataforma que implementa as camadas física e de acesso ao meio do standard IEEE802.16e.
Resumo:
O metano é um gás de estufa potente e uma importante fonte de energia. A importância global e impacto em zonas costeiras de acumulações e escape de gás metano são ainda pouco conhecidas. Esta tese investiga acumulações e escape de gás em canais de maré da Ria de Aveiro com dados de cinco campanhas de reflexão sísmica de alta resolução realizadas em 1986, 1999, 2002 e 2003. Estas incluem três campanhas de Chirp (RIAV99, RIAV02 e RIAV02A) e duas campanhas de Boomer (VOUGA86 e RIAV03). O processamento dos dados de navegação incluíram filtros de erros, correcções de sincronização de relógios de sistemas de aquisição de dados, ajuste de “layback” e estimativa da posição de “midpoint”. O processamento do sinal sísmico consistiu na correcção das amplitudes, remoção de ruído do tipo “burst”, correcções estáticas, correcção do “normal move-out”, filtragem passabanda, desconvolução da assinatura e migração Stolt F-K. A análise da regularidade do trajecto de navegação, dos desfasamentos entre horizontes e dos modelos de superfícies foi utilizada para controlo de qualidade, e permitiu a revisão e melhoria dos parâmetros de processamento. A heterogeneidade da cobertura sísmica, da qualidade do sinal, da penetração e da resolução, no seu conjunto constrangeram o uso dos dados a interpretações detalhadas, mas locais, de objectos geológicos da Ria. É apresentado um procedimento para determinar a escolha de escalas adequadas para modelar os objectos geológicos, baseado na resolução sísmica, erros de posicionamento conhecidos e desfasamentos médios entre horizontes. As evidências de acumulação e escape de gás na Ria de Aveiro incluem turbidez acústica, reflexões reforçadas, cortinas acústicas, domas, “pockmarks” e alinhamentos de “pockmarks” enterradas, horizontes perturbados e plumas acústicas na coluna de água (flares). A estratigrafia e a estrutura geológica controlam a distribuição e extensão das acumulações e escape de gás. Ainda assim, nestes sistemas de baixa profundidade de água, as variações da altura de maré têm um impacto significativo na detecção de gás com métodos acústicos, através de alterações nas amplitudes originais de reflexões reforçadas, turbidez acústica e branqueamento acústico em zonas com gás. Os padrões encontrados confirmam que o escape de bolhas de gás é desencadeado pela descida da maré. Há acumulações de gás em sedimentos Holocénicos e no substrato de argilas e calcários do Mesozóico. Evidências directas de escape de gás em sondagens em zonas vizinhas, mostraram gás essencialmente biogénico. A maioria do gás na área deve ter sido gerado em sedimentos lagunares Holocénicos. No entanto, a localização e geometria de estruturas de escape de fluidos em alguns canais de maré, seguem o padrão de fracturas do substrato Mesozóico, indicando uma possível fonte mais profunda de gás e que estas fracturas funcionam como condutas preferenciais de migração dos fluidos e exercem um controlo estrutural na ocorrência de gás na Ria.
Resumo:
O presente trabalho tem como principal objectivo o desenvolvimento de novos materiais baseados em quitosano, seus derivados e celulose, na forma de nanofibras ou de papel. Em primeiro lugar procedeu-se à purificação das amostras comerciais de quitosano e à sua caracterização exaustiva em termos morfológicos e físicoquímicos. Devido a valores contraditórios encontrados na literatura relativamente à energia de superfície do quitosano, e tendo em conta a sua utilização como precursor de modificações químicas e a sua aplicação em misturas com outros materiais, realizou-se também um estudo sistemático da determinação da energia de superfície do quitosano, da quitina e seus respectivos homólogos monoméricos, por medição de ângulos de contacto Em todas as amostras comerciais destes polímeros identificaram-se impurezas não polares que estão associadas a erros na determinação da componente polar da energia de superfície. Após a remoção destas impurezas, o valor da energia total de superfície (gs), e em particular da sua componente polar, aumentou consideravelmente. Depois de purificadas e caracterizadas, algumas das amostras de quitosano foram então usadas na preparação de filmes nanocompósitos, nomeadamente dois quitosanos com diferentes graus de polimerização, correspondentes derivados solúveis em água (cloreto de N-(3-(N,N,N-trimetilamónio)-2- hidroxipropilo) de quitosano) e nanofibras de celulose como reforço (celulose nanofibrilada (NFC) e celulose bacteriana (BC). Estes filmes transparentes foram preparados através de um processo simples e com conotação ‘verde’ pela dispersão homogénea de diferentes teores de NFC (até 60%) e BC (até 40%) nas soluções de quitosano (1.5% w/v) seguida da evaporação do solvente. Os filmes obtidos foram depois caracterizados por diversas técnicas, tais como SEM, AFM, difracção de raio-X, TGA, DMA, ensaios de tracção e espectroscopia no visível. Estes filmes são altamente transparentes e apresentam melhores propriedades mecânicas e maior estabilidade térmica do que os correspondentes filmes sem reforço. Outra abordagem deste trabalho envolveu o revestimento de folhas de papel de E. globulus com quitosano e dois derivados, um derivado fluorescente e um derivado solúvel em água, numa máquina de revestimentos (‘máquina de colagem’) à escala piloto. Este estudo envolveu inicialmente a deposição de 1 a 5 camadas do derivado de quitosano fluorescente sobre as folhas de papel de forma a estudar a sua distribuição nas folhas em termos de espalhamento e penetração, através de medições de reflectância e luminescência. Os resultados mostraram que, por um lado, a distribuição do quitosano na superfície era homogénea e que, por outro lado, a sua penetração através dos poros do papel cessou após três deposições. Depois da terceira camada verificou-se a formação de um filme contínuo de quitosano sobre a superfície do papel. Estes resultados mostram que este derivado de quitosano fluorescente pode ser utilizado como marcador na optimização e compreensão de mecanismos de deposição de quitosano em papel e outros substratos. Depois de conhecida a distribuição do quitosano nas folhas de papel, estudou-se o efeito do revestimento de quitosano e do seu derivado solúvel em água nas propriedades finais do papel. As propriedades morfológicas, mecânicas, superficiais, ópticas, assim como a permeabilidade ao ar e ao vapor de água, a aptidão à impressão e o envelhecimento do papel, foram exaustivamente avaliadas. De uma forma geral, os revestimentos com quitosano e com o seu derivado solúvel em água tiveram um impacto positivo nas propriedades finais do papel, que se mostrou ser dependente do número de camadas depositadas. Os resultados também mostraram que os papéis revestidos com o derivado solúvel em água apresentaram melhores propriedades ópticas, aptidão à impressão e melhores resultados em relação ao envelhecimento do que os papéis revestidos com quitosano. Assim, o uso de derivados de quitosano solúveis em água em processos de revestimento de papel representa uma estratégia bastante interessante e sustentável para o desenvolvimento de novos materiais funcionais ou na melhoria das propriedades finais dos papéis. Por fim, tendo como objectivo valorizar os resíduos e fracções menos nobres da quitina e do quitosano provenientes da indústria transformadora, estes polímeros foram convertidos em polióis viscosos através de uma reacção simples de oxipropilação. Este processo tem também conotação "verde" uma vez que não requer solvente, não origina subprodutos e não exige nenhuma operação específica (separação, purificação, etc) para isolar o produto da reacção. As amostras de quitina e quitosano foram pré-activadas com KOH e depois modificadas com um excesso de óxido de propileno (PO) num reactor apropriado. Em todos os casos, o produto da reacção foi um líquido viscoso composto por quitina ou quitosano oxipropilados e homopolímero de PO. Estas duas fracções foram separadas e caracterizadas.
Resumo:
In the last decade, mobile wireless communications have witnessed an explosive growth in the user’s penetration rate and their widespread deployment around the globe. In particular, a research topic of particular relevance in telecommunications nowadays is related to the design and implementation of mobile communication systems of 4th generation (4G). 4G networks will be characterized by the support of multiple radio access technologies in a core network fully compliant with the Internet Protocol (all IP paradigms). Such networks will sustain the stringent quality of service (QoS) requirements and the expected high data rates from the type of multimedia applications (i.e. YouTube and Skype) to be available in the near future. Therefore, 4G wireless communications system will be of paramount importance on the development of the information society in the near future. As 4G wireless services will continue to increase, this will put more and more pressure on the spectrum availability. There is a worldwide recognition that methods of spectrum managements have reached their limit and are no longer optimal, therefore new paradigms must be sought. Studies show that most of the assigned spectrum is under-utilized, thus the problem in most cases is inefficient spectrum management rather spectrum shortage. There are currently trends towards a more liberalized approach of spectrum management, which are tightly linked to what is commonly termed as Cognitive Radio (CR). Furthermore, conventional deployment of 4G wireless systems (one BS in cell and mobile deploy around it) are known to have problems in providing fairness (users closer to the BS are more benefited relatively to the cell edge users) and in covering some zones affected by shadowing, therefore the use of relays has been proposed as a solution. To evaluate and analyse the performances of 4G wireless systems software tools are normally used. Software tools have become more and more mature in recent years and their need to provide a high level evaluation of proposed algorithms and protocols is now more important. The system level simulation (SLS) tools provide a fundamental and flexible way to test all the envisioned algorithms and protocols under realistic conditions, without the need to deal with the problems of live networks or reduced scope prototypes. Furthermore, the tools allow network designers a rapid collection of a wide range of performance metrics that are useful for the analysis and optimization of different algorithms. This dissertation proposes the design and implementation of conventional system level simulator (SLS), which afterwards enhances for the 4G wireless technologies namely cognitive Radios (IEEE802.22) and Relays (IEEE802.16j). SLS is then used for the analysis of proposed algorithms and protocols.
Resumo:
Apesar das recentes inovações tecnológicas, o setor dos transportes continua a exercer impactes significativos sobre a economia e o ambiente. Com efeito, o sucesso na redução das emissões neste setor tem sido inferior ao desejável. Isto deve-se a diferentes fatores como a dispersão urbana e a existência de diversos obstáculos à penetração no mercado de tecnologias mais limpas. Consequentemente, a estratégia “Europa 2020” evidencia a necessidade de melhorar a eficiência no uso das atuais infraestruturas rodoviárias. Neste contexto, surge como principal objetivo deste trabalho, a melhoria da compreensão de como uma escolha de rota adequada pode contribuir para a redução de emissões sob diferentes circunstâncias espaciais e temporais. Simultaneamente, pretende-se avaliar diferentes estratégias de gestão de tráfego, nomeadamente o seu potencial ao nível do desempenho e da eficiência energética e ambiental. A integração de métodos empíricos e analíticos para avaliação do impacto de diferentes estratégias de otimização de tráfego nas emissões de CO2 e de poluentes locais constitui uma das principais contribuições deste trabalho. Esta tese divide-se em duas componentes principais. A primeira, predominantemente empírica, baseou-se na utilização de veículos equipados com um dispositivo GPS data logger para recolha de dados de dinâmica de circulação necessários ao cálculo de emissões. Foram percorridos aproximadamente 13200 km em várias rotas com escalas e características distintas: área urbana (Aveiro), área metropolitana (Hampton Roads, VA) e um corredor interurbano (Porto-Aveiro). A segunda parte, predominantemente analítica, baseou-se na aplicação de uma plataforma integrada de simulação de tráfego e emissões. Com base nesta plataforma, foram desenvolvidas funções de desempenho associadas a vários segmentos das redes estudadas, que por sua vez foram aplicadas em modelos de alocação de tráfego. Os resultados de ambas as perspetivas demonstraram que o consumo de combustível e emissões podem ser significativamente minimizados através de escolhas apropriadas de rota e sistemas avançados de gestão de tráfego. Empiricamente demonstrou-se que a seleção de uma rota adequada pode contribuir para uma redução significativa de emissões. Foram identificadas reduções potenciais de emissões de CO2 até 25% e de poluentes locais até 60%. Através da aplicação de modelos de tráfego demonstrou-se que é possível reduzir significativamente os custos ambientais relacionados com o tráfego (até 30%), através da alteração da distribuição dos fluxos ao longo de um corredor com quatro rotas alternativas. Contudo, apesar dos resultados positivos relativamente ao potencial para a redução de emissões com base em seleções de rotas adequadas, foram identificadas algumas situações de compromisso e/ou condicionantes que devem ser consideradas em futuros sistemas de eco navegação. Entre essas condicionantes importa salientar que: i) a minimização de diferentes poluentes pode implicar diferentes estratégias de navegação, ii) a minimização da emissão de poluentes, frequentemente envolve a escolha de rotas urbanas (em áreas densamente povoadas), iii) para níveis mais elevados de penetração de dispositivos de eco-navegação, os impactos ambientais em todo o sistema podem ser maiores do que se os condutores fossem orientados por dispositivos tradicionais focados na minimização do tempo de viagem. Com este trabalho demonstrou-se que as estratégias de gestão de tráfego com o intuito da minimização das emissões de CO2 são compatíveis com a minimização do tempo de viagem. Por outro lado, a minimização de poluentes locais pode levar a um aumento considerável do tempo de viagem. No entanto, dada a tendência de redução nos fatores de emissão dos poluentes locais, é expectável que estes objetivos contraditórios tendam a ser minimizados a médio prazo. Afigura-se um elevado potencial de aplicação da metodologia desenvolvida, seja através da utilização de dispositivos móveis, sistemas de comunicação entre infraestruturas e veículos e outros sistemas avançados de gestão de tráfego.
Resumo:
O presente trabalho teve como objetivo principal estudar a correlação no estado fresco e no estado endurecido entre argamassas e betões com pozolanas, nomeadamente, um metacaulino e uma diatomite. Este trabalho procurou também otimizar a utilização dos materiais pozolânicos na produção de argamassas e betões. O estudo do comportamento reológico inicia-se com a avaliação da argamassa padrão e do betão padrão, utilizando para tal reómetros adequados a cada material. O comportamento reológico das argamassas com pozolanas foi analisado em função do comportamento da argamassa padrão. Verificou-se que é possível ajustar o comportamento reológico de argamassas com pozolanas ao comportamento da argamassa padrão e, deste modo, obter-se também betões correspondentes (com pozolanas) dentro do intervalo de trabalhabilidade pretendido e pré-definido para o betão padrão. Também foi possível concluir que, até um determinado teor de material pozolânico, se verificava uma correlação entre os parâmetros reológicos (viscosidade e tensão de cedência) das argamassas e os seus betões correspondentes. Na caracterização das argamassas e betões no estado endurecido, verificou-se a existência de uma correlação entre a resistência à compressão das argamassas e as resistências dos betões correspondentes para a maioria das formulações. Quando o ajuste de trabalhabilidade foi efetuado através da alteração do teor de água, apenas as formulações com metacaulino apresentavam uma relação linear entre as resistências das argamassas e a dos betões correspondentes. Usando um agente redutor de água de amassadura para o ajuste de trabalhabilidade, as formulações com metacaulino continuam a apresentar uma relação linear entre as resistências das argamassas e as resistências dos betões. As formulações mistas, com metacaulino e diatomite, também apresentam uma relação linear entre o valor das resistências das argamassas e dos betões. As composições com diatomite não mostram esta relação linear entre a resistência das argamassas e a resistência dos betões, embora exista uma correlação entre elas. O estudo de algumas propriedades no estado endurecido de betões mostrou que a utilização de água como elemento de ajuste de trabalhabilidade diminui sempre a resistência à compressão dos betões com o aumento do teor em pozolana. O uso de um agente redutor de água de amassadura, principalmente no caso da utilização do metacaulino, aumenta a resistência dos betões face ao padrão devido à sua maior reatividade pozolânica relativamente à diatomite. Estas tendências para os resultados observados na resistência mecânica foram também visíveis no módulo de elasticidade e justificáveis pela evolução da microestrutura avaliada conjuntamente por porosimetria, análises térmicas e microscopia eletrónica de varrimento. Finalmente, no estudo da influência dos materiais pozolânicos sobre a durabilidade dos betões, especificamente sobre a resistência à penetração de cloretos, ambas as pozolanas mostraram um efeito bloqueador à penetração de cloretos e, também aqui esse efeito foi mais evidente em composições com metacaulino e na presença de um agente redutor de água de amassadura.
Resumo:
The promise of a truly mobile experience is to have the freedom to roam around anywhere and not be bound to a single location. However, the energy required to keep mobile devices connected to the network over extended periods of time quickly dissipates. In fact, energy is a critical resource in the design of wireless networks since wireless devices are usually powered by batteries. Furthermore, multi-standard mobile devices are allowing users to enjoy higher data rates with ubiquitous connectivity. However, the bene ts gained from multiple interfaces come at a cost in terms of energy consumption having profound e ect on the mobile battery lifetime and standby time. This concern is rea rmed by the fact that battery lifetime is one of the top reasons why consumers are deterred from using advanced multimedia services on their mobile on a frequent basis. In order to secure market penetration for next generation services energy e ciency needs to be placed at the forefront of system design. However, despite recent e orts, energy compliant features in legacy technologies are still in its infancy, and new disruptive architectures coupled with interdisciplinary design approaches are required in order to not only promote the energy gain within a single protocol layer, but to enhance the energy gain from a holistic perspective. A promising approach is cooperative smart systems, that in addition to exploiting context information, are entities that are able to form a coalition and cooperate in order to achieve a common goal. Migrating from this baseline, this thesis investigates how these technology paradigm can be applied towards reducing the energy consumption in mobile networks. In addition, we introduce an additional energy saving dimension by adopting an interlayer design so that protocol layers are designed to work in synergy with the host system, rather than independently, for harnessing energy. In this work, we exploit context information, cooperation and inter-layer design for developing new energy e cient and technology agnostic building blocks for mobile networks. These technology enablers include energy e cient node discovery and short-range cooperation for energy saving in mobile handsets, complemented by energy-aware smart scheduling for promoting energy saving on the network side. Analytical and simulations results were obtained, and veri ed in the lab on a real hardware testbed. Results have shown that up to 50% energy saving could be obtained.
Resumo:
The present work aimed to explore the potential of new nanocomposites based on carbon nanostructures and metal nanoparticles for the detection of biomolecules through surface enhanced Raman scattering (SERS). In a first step, polyvinyl alcohol composites were prepared incorporating silver nanoparticles by two different reduction procedures. At first without introduction of carbon nanostructures. These composites showed good results for the SERS identification of nucleic acids. Next, the synthesis and characterization of graphene oxide was studied to be used in the preparation of silver and gold nanocomposites. The reduction of this nanomaterial with different chemical agents was explored, since its reduction degree may be a determinant factor for the application envisaged (biomolecules interaction). The preparation of the nanocomposites with silver and gold was performed with different reducing agents. The SERS activity of these new nanocomposites was then explored in the presence of different analytes, varying the experimental conditions for Raman spectra acquisition. It was interesting to verify that the silver containing nanocomposites presented the particularity to intensify the graphene D and G bands. It is also important to highlight that a new eco-friendly reducing agent was tested for the synthesis of the graphene oxide composites, an Eucalyptus Globulus extract. Other variable introduced was the preparation of gold nanostars synthesized with hydroxylamine in the presence of graphene oxide, which allowed the preparation of a new nanocomposite with SERS potential. Fibrous membranes were also prepared by electrospinning with the aim to prepare SERS supports with adequate topography and porosity for the formation of nanoparticles agglomerates for the creation of the so-called hot-spots and also to allow the penetration of the analyte molecules. The polymers polyvinyl alcohol and polyacrylonitrile were selected for electrospinning. Using this technique, electrospun mantles with silver and gold nanoparticles and nanocomposites were prepared. Several variables were studied, such as the introduction of the nano-fillers during the electrospinning process, later deposition of the nano-fillers on the simple electrospun polymeric fibres and surface functionalization of the simple polymeric membranes to link the nano-fillers. At last, the potentialities of using carbon nanotubes forests, produced by chemical vapor deposition and coated with gold film by sputtering, as new SERS substrates were explored. It was found that the SERS detection of DNA bases and ADN itself is possible using these substrates.
Resumo:
The main objective of the present work is the study of a profitable process not only in the extraction and selective separation of lycopene and β-carotene, two compounds present in tomato, but also in its potential application to food industry wastes. This is one of the industries that produce larger amounts of wastes, which are rich in high value biomolecules with great economic interest. However, the conventional methods used to extract this kind of compounds are expensive which limits their application at large scale. Lycopene and βcarotene are carotenoids with high commercial value, known for their antioxidant activity and benefits to human health. Their biggest source is tomato, one of the world’s most consumed fruits, reason for which large quantities of waste is produced. This work focuses on the study of diverse solvents with a high potential to extract carotenoids from tomato, as well as the search for more environmentally benign solvents than those currently used to extract lycopene and β-carotene from biomass. Additionally, special attention was paid to the creation of a continuous process that would allow the fractionation of the compounds for further purification. Thus, the present work started with the extraction of both carotenoids using a wide range of solvents, namely, organic solvents, conventional salts, ionic liquids, polymers and surfactants. In this stage, each solvent was evaluated in what regards their capacity of extraction as well as their penetration ability in biomass. The results collected showed that an adequate selection of the solvents may lead to the complete extraction of both carotenoids in one single step, particularly acetone and tetrahydrofuran were the most effective ones. However, the general low penetration capacity of salts, ionic liquids, polymers and surfactants makes these solvents ineffective in the solid-liquid extraction process. As the organic solvents showed the highest capacity to extract lycopene and βcarotene, in particular tetrahydrofuran and acetone, the latter solvent used in the development process of fractionation, using to this by strategic use of solvents. This step was only successfully developed through the manipulation of the solubility of each compound in ethanol and n-hexane. The results confirmed the possibility of fractionating the target compounds using the correct addition order of the solvents. Approximately, 39 % of the β-carotene was dissolved in ethanol and about 64 % of lycopene was dissolved in n-hexane, thus indicating their separation for two different solvents which shows the selective character of the developed process without any prior stage optimization. This study revealed that the use of organic solvents leads to selective extraction of lycopene and β-carotene, allowing diminishing the numerous stages involved in conventional methods. At the end, it was possible to idealize a sustainable and of high industrial relevance integrated process, nevertheless existing the need for additional optimization studies in the future.