40 resultados para Máquinas de vetores de suporte
em Instituto Politécnico do Porto, Portugal
Resumo:
Introdução Actualmente, as mensagens electrónicas são consideradas um importante meio de comunicação. As mensagens electrónicas – vulgarmente conhecidas como emails – são utilizadas fácil e frequentemente para enviar e receber o mais variado tipo de informação. O seu uso tem diversos fins gerando diariamente um grande número de mensagens e, consequentemente um enorme volume de informação. Este grande volume de informação requer uma constante manipulação das mensagens de forma a manter o conjunto organizado. Tipicamente esta manipulação consiste em organizar as mensagens numa taxonomia. A taxonomia adoptada reflecte os interesses e as preferências particulares do utilizador. Motivação A organização manual de emails é uma actividade morosa e que consome tempo. A optimização deste processo através da implementação de um método automático, tende a melhorar a satisfação do utilizador. Cada vez mais existe a necessidade de encontrar novas soluções para a manipulação de conteúdo digital poupando esforços e custos ao utilizador; esta necessidade, concretamente no âmbito da manipulação de emails, motivou a realização deste trabalho. Hipótese O objectivo principal deste projecto consiste em permitir a organização ad-hoc de emails com um esforço reduzido por parte do utilizador. A metodologia proposta visa organizar os emails num conjunto de categorias, disjuntas, que reflectem as preferências do utilizador. A principal finalidade deste processo é produzir uma organização onde as mensagens sejam classificadas em classes apropriadas requerendo o mínimo número esforço possível por parte do utilizador. Para alcançar os objectivos estipulados, este projecto recorre a técnicas de mineração de texto, em especial categorização automática de texto, e aprendizagem activa. Para reduzir a necessidade de inquirir o utilizador – para etiquetar exemplos de acordo com as categorias desejadas – foi utilizado o algoritmo d-confidence. Processo de organização automática de emails O processo de organizar automaticamente emails é desenvolvido em três fases distintas: indexação, classificação e avaliação. Na primeira fase, fase de indexação, os emails passam por um processo transformativo de limpeza que visa essencialmente gerar uma representação dos emails adequada ao processamento automático. A segunda fase é a fase de classificação. Esta fase recorre ao conjunto de dados resultantes da fase anterior para produzir um modelo de classificação, aplicando-o posteriormente a novos emails. Partindo de uma matriz onde são representados emails, termos e os seus respectivos pesos, e um conjunto de exemplos classificados manualmente, um classificador é gerado a partir de um processo de aprendizagem. O classificador obtido é então aplicado ao conjunto de emails e a classificação de todos os emails é alcançada. O processo de classificação é feito com base num classificador de máquinas de vectores de suporte recorrendo ao algoritmo de aprendizagem activa d-confidence. O algoritmo d-confidence tem como objectivo propor ao utilizador os exemplos mais significativos para etiquetagem. Ao identificar os emails com informação mais relevante para o processo de aprendizagem, diminui-se o número de iterações e consequentemente o esforço exigido por parte dos utilizadores. A terceira e última fase é a fase de avaliação. Nesta fase a performance do processo de classificação e a eficiência do algoritmo d-confidence são avaliadas. O método de avaliação adoptado é o método de validação cruzada denominado 10-fold cross validation. Conclusões O processo de organização automática de emails foi desenvolvido com sucesso, a performance do classificador gerado e do algoritmo d-confidence foi relativamente boa. Em média as categorias apresentam taxas de erro relativamente baixas, a não ser as classes mais genéricas. O esforço exigido pelo utilizador foi reduzido, já que com a utilização do algoritmo d-confidence obteve-se uma taxa de erro próxima do valor final, mesmo com um número de casos etiquetados abaixo daquele que é requerido por um método supervisionado. É importante salientar, que além do processo automático de organização de emails, este projecto foi uma excelente oportunidade para adquirir conhecimento consistente sobre mineração de texto e sobre os processos de classificação automática e recuperação de informação. O estudo de áreas tão interessantes despertou novos interesses que consistem em verdadeiros desafios futuros.
Resumo:
Nos últimos anos começaram a ser vulgares os computadores dotados de multiprocessadores e multi-cores. De modo a aproveitar eficientemente as novas características desse hardware começaram a surgir ferramentas para facilitar o desenvolvimento de software paralelo, através de linguagens e frameworks, adaptadas a diferentes linguagens. Com a grande difusão de redes de alta velocidade, tal como Gigabit Ethernet e a última geração de redes Wi-Fi, abre-se a oportunidade de, além de paralelizar o processamento entre processadores e cores, poder em simultâneo paralelizá-lo entre máquinas diferentes. Ao modelo que permite paralelizar processamento localmente e em simultâneo distribuí-lo para máquinas que também têm capacidade de o paralelizar, chamou-se “modelo paralelo distribuído”. Nesta dissertação foram analisadas técnicas e ferramentas utilizadas para fazer programação paralela e o trabalho que está feito dentro da área de programação paralela e distribuída. Tendo estes dois factores em consideração foi proposta uma framework que tenta aplicar a simplicidade da programação paralela ao conceito paralelo distribuído. A proposta baseia-se na disponibilização de uma framework em Java com uma interface de programação simples, de fácil aprendizagem e legibilidade que, de forma transparente, é capaz de paralelizar e distribuir o processamento. Apesar de simples, existiu um esforço para a tornar configurável de forma a adaptar-se ao máximo de situações possível. Nesta dissertação serão exploradas especialmente as questões relativas à execução e distribuição de trabalho, e a forma como o código é enviado de forma automática pela rede, para outros nós cooperantes, evitando assim a instalação manual das aplicações em todos os nós da rede. Para confirmar a validade deste conceito e das ideias defendidas nesta dissertação foi implementada esta framework à qual se chamou DPF4j (Distributed Parallel Framework for JAVA) e foram feitos testes e retiradas métricas para verificar a existência de ganhos de performance em relação às soluções já existentes.
Resumo:
O presente trabalho teve como principais objectivos, estudar e optimizar o processo de tratamento do efluente proveniente das máquinas da unidade Cold-press da linha de produção da Empresa Swedwood, caracterizar a solução límpida obtida no tratamento e estudar a sua integração no processo, e por fim caracterizar o resíduo de pasta de cola obtido no tratamento e estudar a possível valorização energética deste resíduo. Após caracterização inicial do efluente e de acordo com os resultados de um estudo prévio solicitado pela Empresa Swedwood a uma empresa externa, decidiu-se iniciar o estudo de tratabilidade do efluente pelo processo físico-químico a coagulação/floculação. No processo de coagulação/floculação estudou-se a aplicabilidade, através de ensaios Jar-test, dos diferentes agentes de coagulação/floculação: a soda cáustica, a cal, o cloreto férrico e o sulfato de alumínio. Os melhores resultados neste processo foram obtidos com a adição de uma dose de cal de 500 mg/Lefluente, seguida da adição de 400 mg/Lefluente de sulfato de alumínio. Contudo, após este tratamento o clarificado obtido não possuía as características necessárias para a sua reintrodução no processo fabril nem para a sua descarga em meio hídrico. Deste modo procedeu-se ao estudo de tratamentos complementares. Nesta segunda fases de estudo testaram-se os seguintes os tratamentos: a oxidação química por Reagente de Fenton, o tratamento biológico por SBR (sequencing batch reactor) e o leito percolador. Da análise dos resultados obtidos nos diferentes tratamentos conclui-se que o tratamento mais eficaz foi o tratamento biológico por SBR com adição de carvão activado. Prevê-se que no final do processo de tratamento o clarificado obtido possa ser descarregado em meio hídrico ou reintroduzido no processo. Como o estudo apenas foi desenvolvido à escala laboratorial, seria útil poder validar os resultados numa escala piloto antes da sua implementação industrial. A partir dos resultados do estudo experimental, procedeu-se ao dimensionamento de uma unidade de tratamento físico-químico e biológico à escala industrial para o tratamento de 20 m3 de efluente produzido na fábrica, numa semana. Dimensionou-se ainda a unidade (leito de secagem) para tratamento das lamas produzidas. Na unidade de tratamento físico-químico (coagulação/floculação) os decantadores estáticos devem possuir o volume útil de 4,8 m3. Sendo necessários semanalmente 36 L da suspensão de cal (Neutrolac 300) e 12,3 L da solução de sulfato de alumínio a 8,3%. Os tanques de armazenamento destes compostos devem possuir 43,2 litros e 96 litros, respectivamente. Nesta unidade estimou-se que são produzidos diariamente 1,4 m3 de lamas. Na unidade de tratamento biológico o reactor biológico deve possuir um volume útil de 6 m3. Para que este processo seja eficaz é necessário fornecer diariamente 2,1 kg de oxigénio. Estima-se que neste processo será necessário efectuar a purga de 325 litros de lamas semanalmente. No final da purga repõe-se o carvão activado, que poderá ser arrastado juntamente com as lamas, adicionando-se 100 mg de carvão por litro de licor misto. De acordo com o volume de lamas produzidos em ambos os tratamentos a área mínima necessária para o leito de secagem é de cerca de 27 m2. A análise económica efectuada mostra que a aquisição do equipamento tem o custo de 22.079,50 euros, o custo dos reagentes necessários neste processo para um ano de funcionamento tem um custo total de 508,50 euros e as necessidades energéticas de 2.008,45 euros.
Resumo:
Nesta dissertação foram estudados métodos de apoio à negociação com o objectivo de encontrar o melhor modelo de negociação para uma empresa prestadora de serviços médicos. O modelo utilizado foi o WinWin e para testar o modelo foi desenvolvido um sistema de apoio à negociação com os clientes. A aplicação foi desenvolvida com o objectivo de conseguir optimizar percursos e reduzir custos, dentro de certas condições, da forma mais eficiente possível, e que fosse de acordo aos interesses do processo de negociação e do contrato com o cliente. Com isto, a aplicação foi testada com 70 contratos, tendo conseguido simular vários grafos que conseguiam alocar todas as consultas dos contratos de forma a respeitar os objectivos impostos por este, e sendo eficientes no sentido de reduzir os custos e tempo de deslocação, diminuindo consequentemente os custos do contrato para o cliente. A redução dos custos para o cliente permite à empresa prestadora de serviços médicos ser mais competitiva face aos seus concorrentes, assim como possuir uma maior margem de manobra face ao processo de negociação, pois também através das simulações conseguem ter uma noção mais precisa dos custos totais de um contrato, diminuindo assim possíveis riscos de um contrato mal estimado.
Resumo:
Atualmente e devido às conjunturas sócio económicas que as empresas atravessam, é importante maximizar tanto os recursos materiais como humanos. Essa consciência faz com que cada vez mais as empresas tentem que os seus colaboradores possam desempenhar um papel importante no processo de decisão. Cada vez mais a diferença entre o sucesso e o fracasso depende da estratégia que cada empresa opte por envergar. Sendo assim cada atividade desempenhada por um seu colaborador deve estar alinhada com os objetivos estratégicos da empresa. O contexto em que a presente tese se insere tem por base uma pesquisa aos vários métodos multicritério existentes, de forma a que o serviço que seja adjudicado possa ser executado de forma transparente e eficiente, sem nunca descorar a sua otimização. O método de apoio à decisão escolhido foi o Analytic Hierarchy Process (AHP). A necessidade de devolver aos decisores/gestores a melhor solução resultante da aplicação de um método de apoio à decisão numa empresa de serviços energéticos foi a base para a escolha da tese. Dos resultados obtidos conclui-se que a aplicação do método AHP foi adequada, conseguindo responder a todos os objetivos inicialmente propostos. Foi também possível verificar os benefícios que advêm da sua aplicação, que por si só, ajudaram a perceber que é necessário haver uma maior entreajuda e consenso entre as decisões a tomar.
Resumo:
O contributo da área de investigação Interacção Humano-Computador (HCI) está patente não só na qualidade da interacção, mas também na diversificação das formas de interacção. A HCI define-se como sendo uma disciplina que se dedica ao desenho, desenvolvimento e implementação de sistemas de computação interactivos para uso humano e estudo dos fenómenos relevantes que os rodeiam. Pretende-se, no âmbito desta tese de mestrado, o desenvolvimento de um Editor Gráfico de Layout Fabril a integrar num SAD para suporte ao Planeamento e Controlo da Produção. O sistema deve ser capaz de gerar um layout fabril do qual constam, entre outros objectos, as representações gráficas e as respectivas características/atributos do conjunto de recursos (máquinas/processadores) existentes no sistema de produção a modelar. O módulo desenvolvido será integrado no projecto de I&D ADSyS (Adaptative Decision Support System for Interactive Scheduling with MetaCognition and User Modeling Experience), melhorando aspectos de interacção referentes ao sistema AutoDynAgents, um dedicado ao escalonamento, planeamento e controlo de produção. Foi realizada a análise de usabilidade a este módulo com a qual se pretendeu realizar a respectiva avaliação, através da realização de um teste de eficiência e do preenchimento de um inquérito, da qual se identificaram um conjunto de melhorias e sugestões a serem consideradas no refinamento deste módulo.
Resumo:
Este trabalho é uma parte do tema global “Suporte à Computação Paralela e Distribuída em Java”, também tema da tese de Daniel Barciela no mestrado de Engenharia Informática do Instituto Superior de Engenharia do Porto. O seu objetivo principal consiste na definição/criação da interface com o programador, assim como também abrange a forma como os nós comunicam e cooperam entre si para a execução de determinadas tarefas, de modo a atingirem um único objetivo global. No âmbito desta dissertação foi realizado um estudo prévio relativamente aos modelos teóricos referentes à computação paralela, assim como também foram analisadas linguagens e frameworks que fornecem suporte a este mesmo tipo de computação. Este estudo teve como principal objetivo a análise da forma como estes modelos e linguagens permitem ao programador expressar o processamento paralelo no desenvolvimento das aplicações. Como resultado desta dissertação surgiu a framework denominada Distributed Parallel Framework for Java (DPF4j), cujo objetivo principal é fornecer aos programadores o suporte para o desenvolvimento de aplicações paralelas e distribuídas. Esta framework foi desenvolvida na linguagem Java. Esta dissertação contempla a parte referente à interface de programação e a toda a comunicação entre nós cooperantes da framework DPF4j. Por fim, foi demonstrado através dos testes realizados que a DPF4j, apesar de ser ainda um protótipo, já demonstra ter uma performance superior a outras frameworks e linguagens que possuem os mesmos objetivos.
Resumo:
A presente dissertação consiste em verificar a tendência do coeficiente de segurança quando se varia certos parâmetros (ângulo de atrito interno do terreno, inclinação do terrapleno no tardoz do muro e o ângulo que a massa de solo faz quando se comporta como parte integrante do muro numa situação limite) considerados no cálculo. Para atingir os objectivos anteriormente referidos, dividiu-se o trabalho em duas fases, a primeira fase teve como objectivo verificar qual a tendência do coeficiente de segurança quando sujeito à variação de dois parâmetros, o ângulo de atrito interno do terreno e a inclinação do terrapleno no tardoz do muro que varia de 5° até ao valr do ângulo de atrito interno do terreno. A segunda fase consiste em analisar qual a tendência do coeficiente de segurança quando sujeito à variação de três parâmetros, o ângulo de atrito interno do terreno, de 20° a 45°, a inclinação do terrapleno no tardoz do muro, de 10° até ao valor do ângulo de atrito interno do terreno, e o ângulo que a massa de solo faz quando se comporta como parte integrante do muro numa situação limite. Para ambas as situações efectuaram-se os respectivos cálculos quer pela Teoria de Rankine e quer pela Teoria de Mohr – Coulomb, havendo casos em que foi necessário conjugar estas duas Teorias.
Resumo:
A sociedade moderna encontra-se numa evolução progressiva e constante no que respeita às novas tecnologias. Independentemente da área de conhecimento, é de senso comum, que cada vez mais é necessária formação sólida, sendo fundamental a preparação e a consolidação das futuras gerações na utilização das novas tecnologias. As plataformas de e-learning são hoje em dia uma realidade mais que afirmada, e com aplicação em todos os sectores de actividade. A área da saúde não foge à regra, verificando-se que os seus profissionais evidenciam falta de disponibilidade para participação nas formações presenciais, fundamentais para o seu processo de formação contínua (LLL – Long Liffe Learning). Estes profissionais necessitam de estar continuamente actualizados, de forma a melhor poderem contribuir para o desempenho das suas funções, como o aconselhamento dos utentes, acompanhamento de doentes crónicos, uso correcto dos medicamentos, entre outros. O presente trabalho pretende implementar em ambiente hospitalar o modelo de formação à distância em regime de e-learning ou b-learning, identificando potenciais vantagens e constrangimentos inerentes ao processo. Para o efeito, será utilizada a plataforma MEDUCA criada pelo GILT-ISEP e baseada em Moodle, como uma plataforma destinada á formação para profissionais da área da Saúde. Esta dissertação apresenta uma investigação sobre a implementação da dita plataforma em ambiente hospitalar. Esta dissertação apresenta todo o estudo/trabalho desenvolvido para a implementação da plataforma MEDUCA nalgumas entidades contactadas da área da saúde. Espera-se que esta ferramenta ofereça uma alternativa interactiva de educação e aprendizagem, visando melhorar constantemente o nível formativo de cada profissional de saúde.
Resumo:
O diagnóstico de máquinas elétricas pela análise de vibração é utilizado num plano de manutenção, onde é dado a conhecer a “real condição do equipamento”, e surgiu da necessidade de detetar vibrações indesejáveis nas máquinas elétricas, de uma forma simples e com custos acessíveis. Numa fase inicial é obtido um sinal correspondente á vibração da máquina, recorrendo a um acelerômetro, que dependendo da aceleração da máquina, constrói uma forma de onda correspondente. A forma de onda fica guardada em formato de áudio *.wav. Posteriormente, em software Matlab o ficheiro *.wav irá ser carregado, e comparado com o ficheiro *.wav original da máquina. Ao comparar os ficheiros o software analisa o espectro original da máquina através da transformada de Fourier, com o espectro atual. Se este espectro sair do intervalo de segurança, o software deteta nesse espectro a origem da vibração, pois cada vibração tem uma frequência associada. Percorridos os passos descritos, o software disponibiliza ao utilizador as respetivas formas de onda e todo o restante diagnóstico de forma a uma possível intervenção antecipada da avaria.
Resumo:
O panorama atual da emergência e socorro de primeira linha em Portugal, carateriza-se por uma grande aposta ao longo dos últimos anos num incremento contínuo da qualidade e da eficiência que estes serviços prestam às populações locais. Com vista à prossecução do objetivo de melhoria contínua dos serviços, foram realizados ao longo dos últimos anos investimentos avultados ao nível dos recursos técnicos e ao nível da contratação e formação de recursos humanos altamente qualificados. Atualmente as instituições que prestam socorro e emergência de primeira linha estão bem dotadas ao nível físico e ao nível humano dos recursos necessários para fazerem face aos mais diversos tipos de ocorrências. Contudo, ao nível dos sistemas de informação de apoio à emergência e socorro de primeira linha, verifica-se uma inadequação (e por vezes inexistência) de sistemas informáticos capazes de suportar convenientemente o atual contexto de exigência e complexidade da emergência e socorro. Foi feita ao longo dos últimos anos, uma forte aposta na melhoria dos recursos físicos e dos recursos humanos encarregues da resposta àsemergência de primeira linha, mas descurou-se a área da gestão e análise da informação sobre as ocorrências, assim como, o delinear de possíveis estratégias de prevenção que uma análise sistematizada da informação sobre as ocorrências possibilita. Nas instituições de emergência e socorro de primeira linha em Portugal (bombeiros, proteção civil municipal, PSP, GNR, polícia municipal), prevalecem ainda hoje os sistemas informáticos apenas para o registo das ocorrências à posteriori e a total inexistência de sistemas de registo de informação e de apoio à decisão na alocação de recursos que operem em tempo real. A generalidade dos sistemas informáticos atualmente existentes nas instituições são unicamente de sistemas de backoffice, que não aproveitam a todas as potencialidades da informação operacional neles armazenada. Verificou-se também, que a geo-localização por via informática dos recursos físicos e de pontos de interesse relevantes em situações críticas é inexistente a este nível. Neste contexto, consideramos ser possível e importante alinhar o nível dos sistemas informáticos das instituições encarregues da emergência e socorro de primeira linha, com o nível dos recursos físicos e humanos que já dispõem atualmente. Dado que a emergência e socorro de primeira linha é um domínio claramente elegível para a aplicação de tecnologias provenientes dos domínios da inteligência artificial (nomeadamente sistemas periciais para apoio à decisão) e da geo-localização, decidimos no âmbito desta tese desenvolver um sistema informático capaz de colmatar muitas das lacunas por nós identificadas ao nível dos sistemas informáticos destas instituições. Pretendemos colocar as suas plataformas informáticas num nível similar ao dos seus recursos físicos e humanos. Assim, foram por nós identificadas duas áreas chave onde a implementação de sistemas informáticos adequados às reais necessidades das instituições podem ter um impacto muito proporcionar uma melhor gestão e otimização dos recursos físicos e humanos. As duas áreas chave por nós identificadas são o suporte à decisão na alocação dos recursos físicos e a geolocalização dos recursos físicos, das ocorrências e dos pontos de interesse. Procurando fornecer uma resposta válida e adequada a estas duas necessidades prementes, foi desenvolvido no âmbito desta tese o sistema CRITICAL DECISIONS. O sistema CRITICAL DECISIONS incorpora um conjunto de funcionalidades típicas de um sistema pericial, para o apoio na decisão de alocação de recursos físicos às ocorrências. A inferência automática dos recursos físicos, assenta num conjunto de regra de inferência armazenadas numa base de conhecimento, em constante crescimento e atualização, com base nas respostas bem sucedidas a ocorrências passadas. Para suprimir as carências aos nível da geo-localização dos recursos físicos, das ocorrências e dos pontos de interesse, o sistema CRITICAL DECISIONS incorpora também um conjunto de funcionalidades de geo-localização. Estas permitem a geo-localização de todos os recursos físicos da instituição, a geo-localização dos locais e as áreas das várias ocorrências, assim como, dos vários tipos de pontos de interesse. O sistema CRITICAL DECISIONS visa ainda suprimir um conjunto de outras carências por nós identificadas, ao nível da gestão documental (planos de emergência, plantas dos edifícios) , da comunicação, da partilha de informação entre as instituições de socorro e emergência locais, da contabilização dos tempos de serviço, entre outros. O sistema CRITICAL DECISIONS é o culminar de um esforço colaborativo e contínuo com várias instituições, responsáveis pela emergência e socorro de primeira linha a nível local. Esperamos com o sistema CRITICAL DECISIONS, dotar estas instituições de uma plataforma informática atual, inovadora, evolutiva, com baixos custos de implementação e de operação, capaz de proporcionar melhorias contínuas e significativas ao nível da qualidade da resposta às ocorrências, das capacidades de prevenção e de uma melhor otimização de todos os tipos de recursos que têm ao dispor.
Resumo:
Nem sempre são fáceis os desafios ambientais associados ao consumo de energia. Sobretudo devido à forte dependência de combustíveis fósseis, torna-se cada vez mais evidente a inevitabilidade de agentes económicos, políticos, sociedade em geral, assumirem um compromisso focado na melhoria da eficiência energética e no uso racional da energia, decorrente das atividades económicas. Esta preocupação assume-se também como nacional. A norma NP EN ISO 50001 apresenta-se como uma solução de método transversal e de harmonia internacional. Vetores como gestão eficiente de energia, consequente minimização no impacto ambiental e relevantes reduções dos custos de energia, são os pilares desta norma que certifica atividades desde o sector terciário ao industrial.
Resumo:
A Segurança de pessoas, animais e bens e o respeito por direitos (individuais, de grupo) foram desde sempre os principais objetivos da regulamentação das instalações elétricas. Outros aspetos como a qualidade de serviço, a continuidade de serviço, a adequação às necessidades dos utilizadores, a eficiência energética, a utilização racional de energia e sustentabilidade e o conforto na utilização, são fatores que devem estar presentes , aquando da realização de um projeto, da execução e na exploração das instalações elétricas. Nesse sentido, existe todo um quadro legal de suporte, ao projeto, à execução e à exploração das instalações elétricas, que pode ser agrupado, genericamente, em: – Regulamento de Licenças para Instalações Elétricas – Regulamentação de segurança – Regulamentação de qualidade de serviço público – Guias técnicos e Projetos-tipo da Direção Geral de Energia e Geologia
Resumo:
A satisfação das necessidades e a defesa dos interesses dos consumidores de comunicações eletrónicas passa por infraestruturas de telecomunicações modernas, fiáveis e adaptadas aos serviços disponibilizados pelos operadores de telecomunicações. O Decreto-Lei n.º 123/2009 de 21 de Maio, com a redação conferida pelo posterior Decreto-Lei n.º 258/2009 de 25 de Setembro de 2009, veio dar um novo enquadramento ao setor das comunicações eletrónicas e potenciar o desenvolvimento e investimento por parte de fabricantes e operadores de telecomunicações em redes de nova geração. Foram, assim, relançadas as bases para o funcionamento de um mercado que se quer concorrencial. A nova edição do Manual de Infraestruturas de Telecomunicações em Edifícios (ITED), veio dar suporte técnico legal aos cumprimentos dos objetivos supra citados, sendo claramente inovador tanto em conceitos de infraestrutura como de materiais, equipamentos e respetivas especificações técnicas. Há uma clara preocupação em dotar os edifícios de infraestruturas de telecomunicações capazes de suportar os novos serviços disponibilizados pelos operadores de telecomunicações, não se alheando do cumprimento das Novas Normas Europeias. Assim, e relembrando, as soluções técnicas que vigoram para cada uma das tecnologias obrigatórias a adotar nas instalações são: 1. Par de Cobre – Cabos de Par de Cobre de categoria 6 ou superior; 2. Cabo Coaxial – Cabos coaxiais da categoria TCD-C-H, frequência máxima de trabalho de 3GHz;
Resumo:
Parafraseando as prescrições e especificações técnicas da 2ª Edição do Manual de Infraestruturas de Telecomunicações em Edifícios (ITED), “Os fogos de uso residencial possuem, obrigatoriamente, um local onde se concentram as três tecnologias: par de cobre (PC), cabo coaxial (CC) e fibra ótica (FO). Esse local é designado por Zona de Acesso Privilegiado (ZAP) e localiza‐se na divisão mais adequada, no entendimento do projetista e de acordo com as preferências do dono de obra“. Nesta zona concentram‐se as 3 tecnologias atualmente obrigatórias constituindo, assim, um suporte para o fornecimento avançado de serviços tecnológicos evoluídos. A modernização e evolução das infraestruturas de comunicações eletrónicas em Portugal na última década, quer ao nível regulatório, quer ao nível tecnológico dos equipamentos, constituem, implacavelmente, um poderoso incentivo à expansão da sociedade do conhecimento que deixaremos como legado às gerações vindouras.