999 resultados para Processamento
Resumo:
O efeito conjugado das imposições da grande distribuição e dos consumidores cada vez mais exigentes levou aos intervenientes do sector alimentar considerarem a certificação dos seus produtos e/ou sistemas de produção e distribuição por referenciais específicos. Todas as organizações que intervêm na cadeia alimentar têm a responsabilidade de colocar no mercado produtos alimentares, cujas condições de higiene e segurança estejam devidamente garantidas. Este trabalho tem por base o levantamento dos perigos considerando todos os potenciais elos da cadeia até ao consumidor final e que podem introduzir perigos para a segurança alimentar, de forma a definir medidas para controlar esses mesmos perigos ou simplesmente comunica-los com vista ao seu controlo. Tem, ainda, como objetivo melhorar a definição da utilização prevista dos produtos ao nível da utilização imprópria, não prevista mas razoavelmente expectável a par com a identificação dos perigos que não são esperados mas que podem ocorrer e ser introduzidos no produto desde a sua origem até ao consumidor final. O trabalho desenvolvido teve por base um período de estágio curricular numa Empresa do ramo Alimentar (Empresa X), onde se realizou um levantamento e posterior revisão de todos os rótulos de caixas e embalagens, fichas técnicas e planos HACCP dos produtos comercializados. Foi possível identificar de uma forma geral os perigos associados às matérias-primas, etapas de processamento e ao produto final, demostrando assim que todos os intervenientes na cadeia alimentar têm de assegurar a segurança no produto na etapa onde intervêm. Foram ainda feitas sugestões de medidas a implementar pela Empresa e ou Fornecedor, sendo que algumas delas já foram implementadas pelos fornecedores da empresa X no seguimento da sugestão apresentada. Concluiu-se que é possível à obtenção de um produto seguro caso exista a colaboração de todos os intervenientes da cadeia alimentar e o cumprimento das boas práticas de fabrico por parte dos mesmos. No entanto constatou-se que ainda é necessário melhorar a rotulagem de alguns produtos no sentido de evitar a sua utilização impropria por parte dos consumidores ou elo seguinte da cadeia até chegar ao consumidor final.
Resumo:
Grande parte dos resíduos de biomassa gerados na indústria agro-alimentar encontram-se subvalorizados. Como tal, é fundamental desenvolver processos capazes de converter esses resíduos em produtos de valor acrescentado. Por outro lado, os compostos farmacêuticos são considerados contaminantes emergentes das águas residuais e com efeitos nocivos para a saúde humana e dos animais. Tendo em conta este enquadramento, resíduos industriais de processamento de batata, foram convertidos em biocarvão activado e utilizados como adsorventes do fármaco Diclofenac, em fase líquida. Os resíduos de biomassa, maioritariamente casca de batata, foram submetidos a caracterização química e a análise termogravimétrica. O biocarvão foi obtido por activação química dos resíduos de biomassa com K2CO3 a 700ºC durante 1 hora, em atmosfera de azoto. Seguidamente foi submetido a caracterização textural e química. O biocarvão (CRB) foi aplicado à remoção de diclofenac sódico (DCF), em fase aquosa, e o seu desempenho foi comparado com o de um carvão activado comercial (GAC). Ambos os carvões, apresentaram-se como materiais microporosos, mas o CRB revelou possuir uma extensa rede macroporosa que se reflectiu numa cinética de adsorção do DCF significativamente mais rápida que a do GAC. Concluiu-se que a cinética de adsorção do DCF com o biocarvão obedecia a um modelo de pseudo 2ªordem e a cinética do GAC se ajustava a um modelo de pseudo 1ª ordem. Apesar do GAC apresentar uma capacidade superior de adsorção no equilíbrio, a sua constante cinética foi inferior à do CRB. No estudo das isotérmicas de adsorção, observou-se que ambos os carvões seguiam o modelo de Langmuir. Apesar da maior capacidade de adsorção do carvão comercial, a constante de Langmuir para o carvão CRB apresentou-se acentuadamente superior, revelando maior afinidade do DCF com este carvão. Para além disso, a cinética superior do CRB representa uma vantagem para processos em que este parâmetro seja determinante.
Resumo:
A pressão da concorrência está a mudar a indústria alimentar, tornando necessária a adoção e melhoria sistemática de Sistemas de Gestão da Qualidade e Segurança Alimentar. Este é um assunto que assume uma importância primordial, sendo da responsabilidade de todos os intervenientes da cadeia alimentar. O controlo da Qualidade e Segurança Alimentar assumiu maior destaque com a introdução do Codex Alimentarius e toda a documentação que o teve por base. Actualmente, para além do Sistema HACCP, podem ser implementadas outras normas tais como a ISO 9001, ISO 22 000, a Norma BRC e a IFS. Para o controlo eficaz dos alimentos é necessário conhecer os perigos a que estão sujeitos. Quando detetados previamente podem ser evitadas doenças de origem alimentar, que continuam a ser um problema de saúde pública, tanto nos países desenvolvidos como em desenvolvimento. A implementação do Sistema HACCP facilita o cumprimento das exigências legais e permite o uso mais eficiente de recursos na resposta a questões relacionadas com a inocuidade dos alimentos. Esta implementação pode ocorrer em todas as etapas de processamento e desenvolvimento de alimentos. O sistema deve ser passível de ser adaptado a mudanças e deve manter-se em constante atualização. O objetivo geral da presente dissertação é observar e compreender o contexto real de trabalho da Santini, empresa dedicada à produção artesanal de gelado e bolacha, e efetuar a análise do Sistema HACCP implementado de forma a proceder à sua revisão documental e melhoria contínua. Foi necessário um conhecimento profundo do funcionamento da empresa, sendo que para isso foi realizado o acompanhamento de todas as etapas do produção e, posteriormente, a revisão de todos os documentos, entre eles o Manual de Boas Práticas e documentos associados, bem como o Manual HACCP.
Resumo:
Um dos maiores desafios da neurofisiologia é o de compreender a forma como a informação é transmitida através do sistema nervoso. O estudo do sistema nervoso tem várias aplicações, tanto na neurologia, permitindo avanços ao nível clínico, como noutras áreas, e.g., nos sistemas de processamento de informação baseados em redes neuronais. A transmissão de informação entre neurónios é feita por via de sinais elétricos. A compreensão deste fenómeno é ainda incompleta e há projectos a nível europeu e mundial com o objetivo de modular o sistema nervoso no seu todo de forma a melhor o compreender. Uma das teses que se desenvolve hoje em dia é a de que a transmissão de sinais elétricos no sistema nervoso é influenciada por fenómenos de sincronia. O objetivo desta dissertação é o de otimizar um protocolo de aquisição e análise de dados reais de eletroencefalograma e eletromiograma com o propósito de observar fenómenos de sincronia, baseando-se num algoritmo (análise por referência de fase, ou RPA, do inglês reference phase analysis) que deteta sincronias de fase entre os sinais de eletroencefalograma (EEG) e um sinal de referência, que é, no caso presente, o eletromiograma (EMG). A otimização deste protocolo e sua validação indicaram a existência de fenómenos significativos de sincronia no sinal elétrico, transmitido entre os músculos da mão e o córtex motor, no decorrer da ação motora.
Resumo:
Tendo como caso de estudo um conjunto documental do Arquivo Histórico dos Museus da Universidade de Lisboa (AHMUL) – Museu Nacional de História Natural e da Ciência (MUHNAC), anteriormente fazendo parte do antigo Arquivo Histórico do Museu Bocage – fortemente atingido por um incêndio em 1978, o objectivo principal desta investigação é dar início à pesquisa e explorar a possibilidade de aplicação de métodos não invasivos de restauro digital, como a técnica de digitalização volumétrica (volumetric scanning), para a recuperação da informação escrita na parte mais deteriorada do arquivo; e propor métodos de estabilização/recuperação do seu suporte físico, usando técnicas tradicionais de conservação e restauro. Assim, o objectivo deste estudo não é apenas rever métodos de recuperação da informação para estes documentos tidos como perdidos, mas também propor uma forma de recuperar, tanto quanto possível, o seu suporte original. Será realizada a caracterização material da colecção, com recurso a métodos de exame e análise e o diagnóstico de conservação da parte da colecção mais deteriorada, bem como uma contextualização histórica sobre o arquivo e as condições do incêndio. Como conclusões principais salienta-se a confirmação da possibilidade de aplicação de técnicas de digitalização, os resultados promissores de outras técnicas como a fotografia de infravermelho com recurso adicional a software de processamento da imagem e o uso da imagem multiespectral em documentos carbonizados, além do estabelecimento de uma proposta de protocolo de intervenção para documentos queimados, com recurso a dois éteres de celulose, com diferentes solventes (água e etanol) de acordo com a solubilidade dos meios de escrita. Pretendeu-se ainda com este estudo contribuir para a divulgação da existência deste fundo do AHMUL em específico, tendo sido fundamental a realização, após 37 anos, do primeiro registo e compilação de fontes documentais sobre o incêndio de 18 de março de 1978, um facto tão relevante para a Memória do MUHNAC e dos Museus de Portugal.
Resumo:
Um dos mais graves problemas que se apresentam ao poder público em nossos dias é a manutenção da segurança pública, em especial, graças às mudanças sociais ocorridas após os anos 60 do século passado. Para fazer frente aos novos desafios, houve necessidade de uma mudança de paradigmas nos modelos de gestão policial. O policiamento era caracterizado por patrulhas dispostas de forma aleatória e de forma reativa, atendendo às ocorrências. Contudo, tal forma de atuar não respondia mais às necessidades das comunidades. Era necessário que a polícia se tornasse mais proativa, e dispusesse seus meios de uma forma mais eficiente. Paralelamente aos fenômenos anteriormente comentados, o mundo conheceu um rápido desenvolvimento das tecnologias de informação como um todo. Estes novos sistemas permitiram o desenvolvimento de uma nova capacidade de processamento de informações dos mais diversos tipos, numéricas, de texto, figuras e de localização. Este último tipo de dado, em razão de sua relevância levou a criação dos sistemas de Informação Geográficas (SIG), os quais permitiram um aprofundamento da análise espacial de fenômenos de interesse. Com o avançar das tecnologias disponíveis, foram possíveis análises cada vez mais complexas dos dados, sendo necessária a possibilidade de fusão entre dados de diversas fontes e tipos, incluindo o dado espacial. Este novo tipo de análise, unindo dados geoespaciais com diversos outros tipos de informações deu origem a uma nova modalidade de inteligência: a Geointeligência. Desta forma, tendo em vista que o crime é, por sua própria natureza, um evento espacialmente localizado, é natural que houvesse uma aproximação entre as necessidades de novos modelos de gestão policial, fundamentados principalmente em dados objetivamente analisados e na Geointeligência. Dessa aproximação surgiram diversos modelos de negócios de gestão de policiamento, dentre os quais se destacam o policiamento orientado ao problema (POP) e o policiamento orientado pela inteligência (ILP). Assim, o principal objetivo dessa dissertação é verificar como seu deu tal impacto, bem como, através de exemplos, demonstrar a aplicação prática da Geointeligência em modelos de gestão de policiamento.
Resumo:
Devido ao seu elevado valor nutricional e capacidades tecnologias, as sementes de chia (Salvia hispanica L.), são consideradas um alimento promissor para o desenvolvimento de produtos funcionais, tendo por base a valorização das suas propriedades gelificantes. A caracterização da capacidade gelificante e da concentração ótima de farinha de chia a utilizar na formulação de novos produtos foi realizada através da análise das propriedades físicas e químicas da farinha e dos géis respetivos, para diferentes gamas de concentrações e diferentes condições de processamento. Os resultados obtidos em termos da composição centesimal da farinha de chia reforçam o conhecimento já generalizado sobre o seu valor nutricional, aumentando o seu potencial no desenvolvimento de novos produtos funcionais. Considerando a matéria-prima utilizada, as condições ótimas para a produção dos géis foram 13% (m/m) de farinha de chia hidratada durante 30 minutos, seguindo-se um tratamento térmico a 90°C/30min e subsequente arrefecimento a 5°C. Verificou-se também que a presença de sal ou de açúcar na formulação do produto permite a obtenção de preparações culinárias com características sensorialmente aceitáveis, sendo por isso possível inovar em diversos sentidos na aplicação da farinha de chia como ingrediente alimentar.
Resumo:
A imagem por tensor difusão (DTI) é uma extensão da imagem por ressonância magnética que permite a caraterização microestrutural dos tecidos, sendo um destes, os músculos esqueléticos. No entanto, dadas as grandes dimensões dos mesmos, a aquisição de volumes DTI deste tipo de tecidos é comumente realizada em mais que uma sessão. A não linearidade dos gradientes de codificação espacial e a presença de magnetizações parasitas levam a que ocorram distorções que impossibilitam, quando unidos, a continuação de volumes na sua transição. No mercado já existem sotwares que permitem estas correções, no entanto, o seu objetivo tem como fim estudos populacionais aplicados na neurologia, não estando preparados para o alinhamento e união de volumes contíguos. Ao recorrer a algoritmos aplicados nestes softwares, com a devida preparação, é possível garantir a continuidade de volumes. Um desses algoritmos, demons, foi aplicado em pontos de sobreposição de imagens de volumes contíguos. A transformada resultante deste algoritmo foi aplicado ao volume considerado a transformar e unido ao volume de referência. Mostra-se ser possível a aplicação destes algoritmos para a continuação de volumes, sendo observada a preservação da coerência anatómica das fibras quando comparadas aos grupos de controlo. Numa versão futura, recomenda-se a utilização de algoritmos mais robustos, que tomam partido da informação direcional que a imagem por tensor de difusão fornece.
Resumo:
Com o passar do tempo, a aposta em energias renováveis tem vindo a aumentar. De forma a prever o que se irá produzir com os sistemas de energias renováveis, é necessário desenvolver modelos preditivos, específicos para cada situação. No Departamento de Engenharia Electrotécnica (DEE) da Faculdade de Ciências e Tecnologia (FCT) encontra-se um sistema fotovoltaico e um sistema eólico em funcionamento, e assim de forma a ter uma estimativa da produção de energia de ambos os sistemas, propôs-se nesta dissertação desenvolver um modelo de previsão de produção de energia eléctrica para os sistemas fotovoltaico e eólico. Para desenvolver o modelo preditivo pretendido, em primeiro lugar recolheram-se os dados meteorológicos e de produção de energia no ano 2013 e realizou-se um processamento desses mesmos dados, com a linguagem de programação Java, uma vez que não se encontravam na melhor forma para serem analisados e utilizados para construção do modelo. Após realizado o processamento, como os dados do ano de 2014 existentes não eram suficientes para testar o modelo depois de ser desenvolvido, geraram-se dados meteorológicos para 2014 tendo em consideração os dados de 2013. Para os dados de energia produzida, criaram-se superfícies de aproximação a partir dos dados de 2013, e utilizando os dados meteorológicos gerados para 2014 obteve-se uma aproximação da energia produzida. Tendo todos os dados necessários para a construção do modelo e posteriormente para o testar, iniciouse o pré-processamento dos dados com recurso a filtros e à Análise em Componentes Principais. Por fim, construíram-se duas estruturas diferentes de Redes Neuronais Artificiais de modo a verificar qual se adequa melhor aos sistemas existentes. Para validar o modelo construído com base em redes neuronais testou-se o modelo com os dados de 2014, diferentes dos utilizados na sua construção. Com os resultados obtidos concluiu-se que o filtro mais adequado para o pré-processamento é o filtro Savitzky-Golay e a estrutura do modelo mais indicada para o pretendido será a Rede Neuronal Artificial (RNA) com apenas uma camada intermédia.
Resumo:
As preocupações de projetistas na conceção de estruturas marítimas utilizando modelos numéricos como ferramentas de dimensionamento, prendem-se com a sua fiabilidade, tempo de processamento e precisão. Assim, a calibração e validação de modelos numéricos é essencial para os tornar ferramentas úteis para o projeto de obras marítimas. A presente dissertação tem como objetivo a calibração e validação do modelo numérico AMAZON, baseado na teoria da onda em condições de águas pouco profundas, para dois casos de estudo distintos com base em dados de ensaios realizados anteriormente. O primeiro caso consiste no estudo do espraiamento numa praia barra-fossa cujas condições de batimetria, nível da água e condições de agitação marítima inseridas no AMAZON correspondem às de ensaios em modelo físico realizados à escala 1:5 na Universidade Politécnica da Catalunha, Barcelona. Como o modelo utiliza parâmetros que devem ser calibrados, na sua aplicação e exploração realizou-se um estudo de sensibilidade a esses parâmetros. Com base nos resultados do AMAZON, utilizaram-se programas desenvolvidos em MatLab para o cálculo do espraiamento e do coeficiente de reflexão e compararam-se os resultados com os obtidos nos ensaios em modelo físico. Verificou-se que os resultados do AMAZON são bastante próximos dos valores obtidos pelos ensaios. O segundo caso consiste no estudo de uma estrutura conversora de energia das ondas do tipo coluna de água oscilante - OWC-WEC (Oscillating Water Column - Wave Energy Converter), para a qual o modelo AMAZON nunca tinha sido utilizado. Os dados introduzidos no modelo relativos ao perfil da estrutura, nível da água e condições de agitação correspondem aos dos ensaios realizados à escala 1:35 no LNEC (Laboratório Nacional de Engenharia Civil). Realizou-se um estudo de sensibilidade dos parâmetros do modelo no que respeita à elevação da superfície livre junto e no interior da câmara de água, ao fator de amplificação e ao desfasamento, e compararam-se os resultados com os obtidos nos ensaios em modelo físico. Os resultados do AMAZON constituem um incentivo para a realização e/ou análise de ensaios para diferentes profundidades, aberturas da parede vertical da câmara de água e períodos de onda incidente, que permitam calibração e validação adicionais dos parâmetros do modelo.
Resumo:
RESUMO - Os registos de enfermagem no Centro Hospitalar Lisboa Norte, E.P.E. (CHLN) são feitos em suporte de papel ou através de sistemas de informação (SI) próprios de cada serviço, com a utilização de várias aplicações como o Alert, Picis, etc. Esta diversidade gera alguns constrangimentos em termos de fluxo de informação, em virtude da falta de interoperabilidade dos respetivos sistemas. Esta realidade pode ter impactos na área da qualidade e segurança do utente, com a possibilidade de ocorrência de erros e/ou eventos adversos. Podem ainda ser notórios na área da privacidade e confidencialidade dos dados clínicos, na tomada de decisão, na gestão clínica e financeira e na produção de informação útil para a investigação científica. No CHLN está em curso a implementação de um SI capaz de dar resposta aos registos de enfermagem, integrados num registo de saúde eletrónico focado no utente que obedece à metodologia do processo de enfermagem e utiliza a linguagem codificada da Classificação Internacional para a Prática de Enfermagem (CIPE). Com o desenvolvimento desta investigação, devidamente autorizada pelo Conselho de Administração do CHLN, pretendeu-se dar resposta à pergunta de partida: Estarão os enfermeiros, utilizadores do Desktop de Enfermagem do CHLN, satisfeitos com esse sistema de informação? Com esse propósito, foi elaborada uma abordagem exploratória com recurso a pesquisa bibliográfica sobre os sistemas de informação de enfermagem e a sua avaliação, com base no “Modelo de Sucesso dos Sistemas de Informação de DeLone e McLean”, tendo sido desenvolvido um estudo de caso com uma abordagem quantitativa, mediante a aplicação de um inquérito por questionário aos 262 enfermeiros do CHLN, nos serviços onde já utilizavam o referido SI, entre maio e junho de 2014, com uma taxa de resposta de 84%. Os resultados da aplicação do questionário, objeto de análise estatística univariada e bivariada com recurso a procedimentos descritivos e inferenciais, visando a produção de sínteses dirigidas aos objetivos do estudo, permitiram caracterizar o nível de satisfação dos enfermeiros, enquanto utilizadores do “desktop de enfermagem”, suportados por Tecnologias de Informação e Comunicação. Na escala utilizada (de 1 a 5), o nível médio de satisfação global (2,78) foi ligeiramente inferior ao seu ponto médio (3). No entanto, a maioria dos inquiridos (81,5%) não pretende abandonar o SI que utilizam. Os resultados obtidos permitem demonstrar que a satisfação dos enfermeiros face à implementação e utilização do SIE se trata de uma estratégia bem sucedida do CHLN, ainda que haja áreas onde foram evidenciados menores níveis de satisfação, tais como a “velocidade de processamento”, o “equipamento informático” e o “apoio técnico”, que podem ser alvo de uma maior atenção e reflexão pela gestão de topo, numa estratégia de melhoria contínua da qualidade, com importantes benefícios para a governação da instituição, para os profissionais e para os utentes, no futuro.
Resumo:
Uma vez que o gás natural liquefeito (GNL) é transportado a uma temperatura criogénica de -162 °C e como os gasodutos recebem o gás natural (GN) à temperatura ambiente, existe neste sistema exergia que pode ser usada na produção de energia elétrica. A presente dissertação consiste na proposta, avaliação e comparação termodinâmica de diferentes ciclos para produção de energia elétrica, através do aproveitamento da exergia do GNL, aquando da sua transformação em GN, para introdução nos gasodutos. Neste trabalho, considerou-se como caso de estudo o terminal de GNL de Sines, em Portugal, que atualmente não tem implementada nenhuma solução para o aproveitamento da exergia disponível. Considerando os critérios de projeto, definidos de acordo com as características do terminal de Sines e, usando água do mar como fonte de calor, simularam-se e compararam-se os seguintes tipos de ciclos: o ciclo existente no terminal (CE), sem produção de energia; o ciclo de expansão direta do GN (CED); os ciclos tipo Rankine (CTR); os ciclos tipo Rankine com expansão direta (CTR+ED); e os ciclos tipo Rankine com apoio de energia solar (CTRS). Consideraram-se sete fluidos de trabalho (FT) diferentes: propano, etano, etileno, dióxido de carbono, R134a, R143a e propileno. As potências líquidas máximas obtidas para cada ciclo demonstram que: com o CE gastam-se cerca de 1182 kW para fazer o processamento de GNL; com o CED é possível gastar apenas 349 kW; com os CTR é possível obter uma potência líquida positiva ao processar o GNL, produzindo até 2120 kW (usando propileno como FT); com os CTR+ED é possível produzir 2174 kW (também usando propileno com FT); e com os CTRS é possível produzir até 3440 kW (valor médio anual) (usando etano como FT). Fez-se a otimização multi-objetivo dos ciclos tendo-se considerado alguns aspetos económicos. Além da maximização da potência líquida, para os CED, CTR e CTR+ED minimizou-se a área de transferência de calor total dos permutadores de calor e para os CTRS minimizou-se a área de coletores solares instalada.
Resumo:
A presente dissertação pretende utilizar técnicas de detecção remota como ferramenta na prospecção de jazigos de estanho, volfrâmio e ouro em Portugal Continental. O facto de ser relativamente comum a coexistência de mineralizações estano-volframíticas com mineralizações auro-argentíferas nas regiões centro e norte de Portugal, associado à importância estratégica e económica destes metais, tanto a nível nacional, como europeu, faz destas regiões um dos mais apetecíveis alvos para a prospecção e exploração mineira em Portugal. No contexto português, as ferramentas de detecção remota têm vindo a ser aplicadas com alguma regularidade e nas mais diversas temáticas das Geociências. Contudo, exceptuando alguns trabalhos, principalmente dos anos oitenta e noventa, são escassos os casos conhecidos da aplicação específica da detecção remota na prospecção de recursos minerais metálicos em Portugal. Assim, através da utilização de critérios de fotointerpretação, da aplicação de técnicas de processamento digital a imagens de satélite, assim como da integração dos resultados obtidos com dados de cartografia geológica, de altimetria e geofísicos, pretende-se a selecção de zonas potencialmente relacionadas com a ocorrência dos referidos metais na região de Góis-Castanheira de Pêra. A selecção das zonas potenciais tem como objectivo a escolha de alvos para posterior estudo em pormenor, cujo alcance já não é abrangido pelo âmbito desta dissertação. Para além da aplicação das técnicas de detecção remota e da integração de diferentes fontes de informação em ambiente SIG, foram realizados trabalhos de campo com o intuito de permitir a validação preliminar dos resultados obtidos.
Resumo:
Nos últimos anos tem-se verificado uma modificação nos hábitos de consumo da Internet. As suas aplicações necessitam de certas garantias que são cada vez mais exigentes e, para as acompanhar, métodos cada vez mais avançados de classificação de tráfego são utilizados de modo a lhes atribuir os seus requisitos. Este comportamento provoca no entanto um aumento da complexidade da rede, criando problemas na sua gestão e no processamento de toda a informação. Com o aumento de tráfego, a situação tende a ser cada vez pior. A solução apresentada nesta dissertação passa pela construção de duas lógicas de processamento de controladores Software-Defined Networking (SDN), que atribuem garantias às aplicações utilizando métodos de classificação de tráfego simplistas, utilizando uma metodologia first-come, first-served (FCFS), diminuindo o processamento requerido em relação a outras técnicas. Independentemente do tipo de tráfego, caso a rede consiga assegurar garantias, estas serão atribuídas. Existe um comportamento diferenciado na zona central da rede e na zona de ingresso, de modo a criar uma rede mais escalável, em que a zona de ingresso, lidando com um menor número flows, prepara-os para serem enviados para a zona central bastando a estes apenas encaminhar o tráfego para o seu destino, retirando carga desta zona onde a quantidade de flows é superior. Obtém-se assim uma rede que garante qualidade de serviço a determinados flows, evitando a utilização de técnicas pesadas ao nível de classificação, tornando-a mais escalável.
Resumo:
Os sistemas de comunicação sem fios são sistemas de difusão por natureza. Devido a essa sua natureza, um dos problemas inerentes à mesma deve-se à segurança e ao secretismo, pois se o canal é partilhado a informação facilmente é obtida por um utilizador não autorizado, ao contrário dos sistemas de comunicação com fios. Tradicionalmente, a introdução de segurança em sistemas de comunicação, resulta na encriptação da informação, resultante de protocolos de encriptação. No entanto, a segurança através da criptografia baseia-se na premissa de que o utilizador não autorizado tem uma capacidade de processamento limitada, pois senão poderia simplesmente tentar todas as combinações possíveis e obter a chave de encriptação. Como a capacidade de processamento tem crescido exponencialmente, este tipo de sistemas tem se tornado cada vez mais complexos para não se tornarem obsoletos. A introdução de segurança na camada física torna-se então uma opção apelativa pois pode servir como um complemento, visto que os sistemas de criptografia funcionam em camadas superiores independentes da camada fisica, apresentando assim uma abordagem multi-camada em termos de segurança. Tipicamente as técnicas de segurança no nível físico podem se agrupar em 2 tipos: técnicas que se baseiam em códigos, ou técnicas que exploram variações temporais e espaciais do canal. As primeiras diminuem a eficiência espectral do sistema, e as segundas apresentam bons resultados em ambientes dinâmicos, mas em ambientes estáticos não são muito promissores. Há também a necessidade de aumentar as taxas de transmissão nos próximos sistemas de comunicação. Devido a estes requisitos, uma das tecnologias propostas para a nova geração de comunicações, é uma tecnologia baseada numa arquitectura Multiple-Input-Multiple-Output(MIMO). Esta tecnologia é promissora e consegue atingir taxas de transferências que correspondem aos requisitos propostos. Apresenta-se assim uma nova técnica de segurança no nível físico, que explora as caracteristicas físicas do sistema, como um complemento a outras medidas de segurança em camadas mais altas. Esta técnica não provoca diminuição da eficiência espectral e é independente do canal, o que tenta solucionar os problemas das restantes técnicas já existentes.