11 resultados para Passarinho, Aldir Guimarães

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução observada nas redes de comunicações durante a última década traduziu-se na diversificação de serviços que utilizam a rede, no aumento das taxas de transferência e na massificação da utilização de serviços de acesso à Internet e de comunicações celulares. Durante esta década, várias organizações, das quais se destacam os operadores de telecomunicações, têm dedicado consideráveis esforços no sentido de definir e normalizar arquitecturas de redes de próxima geração. A principal característica deste tipo de rede reside no facto de possuir uma arquitectura modular capaz de fornecer serviços multimédia a clientes de uma rede de acesso com características tecnológicas heterogéneas. Os trabalhos de normalização das arquitecturas de rede NGN têm-se limitado, até ao momento, a especificar detalhes relativos ao funcionamento da rede não tendo ainda sido definida a arquitectura de gestão. Em termos de tecnologias de gestão de redes, foram propostos nas últimas duas décadas novos paradigmas de gestão, novos modelos de dados, novos protocolos de transporte e várias linguagens de definição de informação de gestão. Os modelos de dados têm vindo a ser enriquecidos, os protocolos são mais flexíveis e poderosos, as soluções de gestão oferecem interoperabilidade acrescida e as linguagens permitem definir formatos de configuração mais ricos. Simultaneamente tem crescido a complexidade das soluções de gestão, aumentado a sobrecarga causada pelo aumento de complexidade nos equipamentos bem como nas plataformas computacionais que suportam os sistemas de gestão. O presente trabalho propõe uma solução de gestão para redes NGN capaz de gerir os recursos de rede garantindo Qualidade de Serviço. A solução de gestão proposta inclui uma plataforma de execução de políticas que utiliza os eventos ocorridos na rede para empreender acções de configuração, autonomizando o processo de gestão. Inclui uma avaliação da complexidade de várias tecnologias de gestão estudando a sobrecarga causada pela tecnologia tanto no processo de gestão como na operação da rede. É ainda estudada a escalabilidade das várias tecnologias e analisado o seu comportamento num cenário da rede de um operador de telecomunicações. O trabalho propõe ainda uma metodologia de configuração integrada dos elementos de gestão, através de uma interface de configuração amigável para o administrador do sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O projecto de sequenciação do genoma humano veio abrir caminho para o surgimento de novas áreas transdisciplinares de investigação, como a biologia computacional, a bioinformática e a bioestatística. Um dos resultados emergentes desde advento foi a tecnologia de DNA microarrays, que permite o estudo do perfil da expressão de milhares de genes, quando sujeitos a perturbações externas. Apesar de ser uma tecnologia relativamente consolidada, continua a apresentar um conjunto vasto de desafios, nomeadamente do ponto de vista computacional e dos sistemas de informação. São exemplos a optimização dos procedimentos de tratamento de dados bem como o desenvolvimento de metodologias de interpretação semi-automática dos resultados. O principal objectivo deste trabalho consistiu em explorar novas soluções técnicas para agilizar os procedimentos de armazenamento, partilha e análise de dados de experiências de microarrays. Com esta finalidade, realizou-se uma análise de requisitos associados às principais etapas da execução de uma experiência, tendo sido identificados os principais défices, propostas estratégias de melhoramento e apresentadas novas soluções. Ao nível da gestão de dados laboratoriais, é proposto um LIMS (Laboratory Information Management System) que possibilita a gestão de todos os dados gerados e dos procedimentos realizados. Este sistema integra ainda uma solução que permite a partilha de experiências, de forma a promover a participação colaborativa de vários investigadores num mesmo projecto, mesmo usando LIMS distintos. No contexto da análise de dados, é apresentado um modelo que facilita a integração de algoritmos de processamento e de análise de experiências no sistema desenvolvido. Por fim, é proposta uma solução para facilitar a interpretação biológica de um conjunto de genes diferencialmente expressos, através de ferramentas que integram informação existente em diversas bases de dados biomédicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos maiores avanços científicos do século XX foi o desenvolvimento de tecnologia que permite a sequenciação de genomas em larga escala. Contudo, a informação produzida pela sequenciação não explica por si só a sua estrutura primária, evolução e seu funcionamento. Para esse fim novas áreas como a biologia molecular, a genética e a bioinformática são usadas para estudar as diversas propriedades e funcionamento dos genomas. Com este trabalho estamos particularmente interessados em perceber detalhadamente a descodificação do genoma efectuada no ribossoma e extrair as regras gerais através da análise da estrutura primária do genoma, nomeadamente o contexto de codões e a distribuição dos codões. Estas regras estão pouco estudadas e entendidas, não se sabendo se poderão ser obtidas através de estatística e ferramentas bioinfomáticas. Os métodos tradicionais para estudar a distribuição dos codões no genoma e seu contexto não providenciam as ferramentas necessárias para estudar estas propriedades à escala genómica. As tabelas de contagens com as distribuições de codões, assim como métricas absolutas, estão actualmente disponíveis em bases de dados. Diversas aplicações para caracterizar as sequências genéticas estão também disponíveis. No entanto, outros tipos de abordagens a nível estatístico e outros métodos de visualização de informação estavam claramente em falta. No presente trabalho foram desenvolvidos métodos matemáticos e computacionais para a análise do contexto de codões e também para identificar zonas onde as repetições de codões ocorrem. Novas formas de visualização de informação foram também desenvolvidas para permitir a interpretação da informação obtida. As ferramentas estatísticas inseridas no modelo, como o clustering, análise residual, índices de adaptação dos codões revelaram-se importantes para caracterizar as sequências codificantes de alguns genomas. O objectivo final é que a informação obtida permita identificar as regras gerais que governam o contexto de codões em qualquer genoma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de equipamentos de descodificação massiva de genomas veio aumentar de uma forma brutal os dados disponíveis. No entanto, para desvendarmos informação relevante a partir da análise desses dados é necessário software cada vez mais específico, orientado para determinadas tarefas que auxiliem o investigador a obter conclusões o mais rápido possível. É nesse campo que a bioinformática surge, como aliado fundamental da biologia, uma vez que tira partido de métodos e infra-estruturas computacionais para desenvolver algoritmos e aplicações informáticas. Por outro lado, na maior parte das vezes, face a novas questões biológicas é necessário responder com novas soluções específicas, pelo que o desenvolvimento de aplicações se torna um desafio permanente para os engenheiros de software. Foi nesse contexto que surgiram os principais objectivos deste trabalho, centrados na análise de tripletos e de repetições em estruturas primárias de DNA. Para esse efeito, foram propostos novos métodos e novos algoritmos que permitirem o processamento e a obtenção de resultados sobre grandes volumes de dados. Ao nível da análise de tripletos de codões e de aminoácidos foi proposto um sistema concebido para duas vertentes: por um lado o processamento dos dados, por outro a disponibilização na Web dos dados processados, através de um mecanismo visual de composição de consultas. Relativamente à análise de repetições, foi proposto e desenvolvido um sistema para identificar padrões de nucleótidos e aminoácidos repetidos em sequências específicas, com particular aplicação em genes ortólogos. As soluções propostas foram posteriormente validadas através de casos de estudo que atestam a mais-valia do trabalho desenvolvido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento das soluções baseadas em telemedicina tem permitido a criação e o desenvolvimento de novas formas de prestar cuidados de saúde, aproximando prestadores de pacientes e diminuindo os tempos de espera associados, melhorando a qualidade do serviço prestado. No entanto, nem sempre a introdução de tecnologia nos processos de saúde corresponde a uma redução nas assimetrias existentes a nível nacional na prestação de cuidados. O principal objectivo deste trabalho consistiu em desenvolver um sistema que permita a criação de um mercado electrónico de teleradiologia tirando partido das soluções tecnologicamente evoluídas já existentes e da boa distribuição de equipamento a nível nacional. Neste mercado é possível maximizar a satisfação de pacientes e entidades requisitantes de exames radiológicos em relação ao serviço prestado, sem prejudicar a qualidade do serviço prestado, ao mesmo tempo que optimiza a utilização do equipamento disponibilizado. Para tal, foi verificado o actual estado da arte em termos de sistemas de telemedicina e de teleradiologia, tendo igualmente sido confirmada a percepção existente das assimetrias a nível nacional em termos de distribuição de recursos humanos no sector da saúde. Depois de verificar o actual fluxo de trabalho em termos de requisição, execução e interpretação de exames imagiológicos, procedeu-se à sua optimização e adaptação para um mercado de teleradiologia, desenhando um conjunto de requisitos associados com as principais etapas de execução dos exames, identificando os principais entraves ao seu funcionamento e propondo mecanismos originais de resolução com base em sistemas de informação. Ao nível de sistemas de informação, é apresentado um protótipo que possibilita a demonstração da implementação de alguns dos mais importantes requisitos anteriormente apresentados e o seu funcionamento, demonstrando o funcionamento prático do sistema de mercado de imagens baseado em teleradiologia. Finalmente é demonstrada a exequibilidade prática desta solução mediante a apresentação de um modelo de negócio onde se apresentam os benefícios decorrentes da implementação deste sistema e os respectivos custos associados com a implementação de uma infra-estrutura desta natureza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A exigente inovação na área das aplicações biomédicas tem guiado a evolução das tecnologias de informação nas últimas décadas. Os desafios associados a uma gestão, integração, análise e interpretação eficientes dos dados provenientes das mais modernas tecnologias de hardware e software requerem um esforço concertado. Desde hardware para sequenciação de genes a registos electrónicos de paciente, passando por pesquisa de fármacos, a possibilidade de explorar com precisão os dados destes ambientes é vital para a compreensão da saúde humana. Esta tese engloba a discussão e o desenvolvimento de melhores estratégias informáticas para ultrapassar estes desafios, principalmente no contexto da composição de serviços, incluindo técnicas flexíveis de integração de dados, como warehousing ou federação, e técnicas avançadas de interoperabilidade, como serviços web ou LinkedData. A composição de serviços é apresentada como um ideal genérico, direcionado para a integração de dados e para a interoperabilidade de software. Relativamente a esta última, esta investigação debruçou-se sobre o campo da farmacovigilância, no contexto do projeto Europeu EU-ADR. As contribuições para este projeto, um novo standard de interoperabilidade e um motor de execução de workflows, sustentam a sucesso da EU-ADR Web Platform, uma plataforma para realizar estudos avançados de farmacovigilância. No contexto do projeto Europeu GEN2PHEN, esta investigação visou ultrapassar os desafios associados à integração de dados distribuídos e heterogéneos no campo do varíoma humano. Foi criada uma nova solução, WAVe - Web Analyses of the Variome, que fornece uma coleção rica de dados de variação genética através de uma interface Web inovadora e de uma API avançada. O desenvolvimento destas estratégias evidenciou duas oportunidades claras na área de software biomédico: melhorar o processo de implementação de software através do recurso a técnicas de desenvolvimento rápidas e aperfeiçoar a qualidade e disponibilidade dos dados através da adopção do paradigma de web semântica. A plataforma COEUS atravessa as fronteiras de integração e interoperabilidade, fornecendo metodologias para a aquisição e tradução flexíveis de dados, bem como uma camada de serviços interoperáveis para explorar semanticamente os dados agregados. Combinando as técnicas de desenvolvimento rápidas com a riqueza da perspectiva "Semantic Web in a box", a plataforma COEUS é uma aproximação pioneira, permitindo o desenvolvimento da próxima geração de aplicações biomédicas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este doutoramento em Estudos de Arte centra-se no artista plástico, em Portugal, hoje. De acordo com o seu carácter projectual, estrutura-se em dois vectores distintos, ainda que relacionados entre si e devedores um do outro: -Um corpo prático, assente na prática artística de atelier e dando continuidade ao percurso artístico autoral próprio (conducente à série de imagens fotográficas “Prática Artística Enquanto Ferramenta de Higiene Pessoal”); -Um eixo reflexivo, construído a partir da análise qualitativa do conteúdo de um conjunto de entrevistas presenciais realizadas a artistas plásticos portugueses (conducente ao manifesto artístico “O Artista pelo Artista”). Neste sentido, este estudo vai ao encontro de vinte e seis artistas plásticos contemporâneos portugueses reunidos numa amostra seleccionada pelo crítico de arte Miguel von Hafe Pérez. A saber: Alberto Carneiro, André Cepeda, André Gonçalves, Ângela Ferreira, António Olaio, Carla Cruz, Carla Filipe, Cristina Mateus, Daniel Blaufuks, Eduardo Batarda, Fernando José Pereira, Francisco Queirós, Gerardo Burmester, Joana Vasconcelos, João Pedro Vale, João Tabarra, José de Guimarães, Mafalda Santos, Marta de Menezes, Miguel Leal, Miguel Palma, Paulo Mendes, Pedro Calapez, Pedro Proença, Rui Chafes e Zulmiro de Carvalho. O documento que reúne o conjunto das entrevistas realizadas, anexo a esta investigação, distancia-se do discurso utilizado nas retóricas das narrativas históricas, teóricas ou críticas. Aqui, procuram-se as palavras dos criadores, sem mais. Decorrente do percurso metodológico que orientou a análise qualitativa do conteúdo, este estudo propõe o manifesto artístico "O Artista pelo Artista" enquanto resultado do exercício de investigação. Ainda, este trabalho apresenta a série de imagens fotográficas “Prática Artística Enquanto Ferramenta de Higiene Pessoal” como projecto-tese centrado no movimento que guiou todo o processo investigativo: da reflexão sobre o outro (e sobre as suas palavras) para a reflexão sobre o próprio (e sobre a sua intimidade). Através das vinte e seis entrevistas, do manifesto “O Artista pelo Artista” e da série de imagens “Prática Artística Enquanto Ferramenta de Higiene Pessoal”, esta investigação devolve a palavra aos próprios artistas, a todos os outros operadores da esfera artística e ao público interessado em conhecer o criador apresentado por si próprio, sem mediadores, num acto sincero, franco e generoso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O advento da Internet e da Web, na década de 1990, a par da introdução e desenvolvimento das novas TIC e, por consequência, a emergência da Sociedade da Informação e do Conhecimento, implicaram uma profunda alteração na forma de análise dos processos de ensino-aprendizagem, já não apenas segundo um prisma cognitivista, mas, agora, também social, isto é, segundo a(s) perspetiva(s) construtivista(s). Simultaneamente, torna-se imperativo que, para que possam transformar-se em futuros trabalhadores de sucesso, isto é, trabalhadores de conhecimento (Gates, 1999), os sujeitos aprendentes passem a ser efetivamente educados/preparados para a Sociedade da Informação e do Conhecimento e, tanto quanto possível, através da educação/formação ao longo da vida (Moore e Thompson, 1997; Chute, Thompson e Hancock, 1999). Todavia, de acordo com Jorge Reis Lima e Zélia Capitão, não se deve considerar esta mudança de paradigma como uma revolução mas, antes, uma evolução, ou, mais concretamente ainda, uma “conciliação de perspectivas cognitivas e sociais” (Reis Lima e Capitão, 2003:53). Assim, às instituições de ensino/formação cumprirá a tarefa de preparar os alunos para as novas competências da era digital, promovendo “a aprendizagem dos pilares do conhecimento que sustentarão a sua aprendizagem ao longo da vida” (Reis Lima e Capitão, Ibidem:54), isto é, “aprender a conhecer”, “aprender a fazer”, “aprender a viver em comum”, e “aprender a ser” (Equipa de Missão para a Sociedade da Informação, 1997:39; negritos e sublinhados no original). Para outros, a Internet, ao afirmar-se como uma tecnologia ubíqua, cada vez mais acessível, e de elevado potencial, “vem revolucionando a gestão da informação, o funcionamento do mercado de capitais, as cadeias e redes de valor, o comércio mundial, a relação entre governos e cidadãos, os modos de trabalhar e de comunicar, o entretenimento, o contacto intercultural, os estilos de vida, as noções de tempo e de distância. A grande interrogação actual reside em saber se a Internet poderá também provocar alterações fundamentais nos modos de aprender e de ensinar” (Carneiro, 2002:17-18; destaques no original). Trata-se, portanto, como argumenta Armando Rocha Trindade (2004:10), de reconhecer que “Os requisitos obrigatórios para a eficácia da aprendizagem a ser assim assegurada são: a prévia disponibilidade de materiais educativos ou de formação de alta qualidade pedagógica e didáctica, tanto quanto possível auto-suficientes em termos de conteúdos teóricos e aplicados, bem como a previsão de mecanismos capazes de assegurar, permanentemente, um mínimo de interactividade entre docentes e aprendentes, sempre que quaisquer dificuldades destes possam manifestarse”. Esta questão é também equacionada pelo Eng.º Arnaldo Santos, da PT Inovação, quando considera que, à semelhança da “maioria dos países, a formação a distância em ambientes Internet e Intranet, vulgo e-Learning, apresenta-se como uma alternativa pedagógica em franca expansão. Portugal está a despertar para esta nova realidade. São várias as instituições nacionais do sector público e privado que utilizam o e-Learning como ferramenta ou meio para formar as suas pessoas” (Santos, 2002:26). Fernando Ramos acrescenta também que os sistemas de educação/formação que contemplam componentes não presenciais, “isto é que potenciam a flexibilidade espacial, têm vindo a recorrer às mais variadas tecnologias de comunicação para permitir a interacção entre os intervenientes, nomeadamente entre os professores e os estudantes. Um pouco por todo o mundo, e também em Portugal, se têm implantado sistemas (habitualmente designados como sistemas de ensino a distância), recorrendo às mais diversas tecnologias de telecomunicações, de que os sistemas de educação através de televisão ou os sistemas de tutoria por rádio ou telefone são exemplos bem conhecidos” (Ramos, 2002b:138-139). Ora, o nosso estudo entronca precisamente na análise de um sistema ou plataforma tecnológica de gestão de aprendizagens (Learning Management System - LMS), o MOODLE, procurando-se, deste modo, dar resposta ao reconhecimento de que “urge investigar sobre a utilização real e pedagógica da plataforma” (Carvalho, 2007:27). Por outro lado, não descurando o rol de interrogações de outros investigadores em torno da utilização do MOODLE, nem enveredando pelas visões mais céticas que inclusive pressagiam a sua “morte” (Fernandes, 2008b:134), também nós nos questionamos se esta ferramenta nem sequer vai conseguir transpor “a fase de final de entusiasmo, e tornar-se uma ferramenta de minorias e de usos ocasionais?” (Fernandes, Op. cit.:133).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durante as ultimas décadas, os registos de saúde eletrónicos (EHR) têm evoluído para se adaptar a novos requisitos. O cidadão tem-se envolvido cada vez mais na prestação dos cuidados médicos, sendo mais pró ativo e desejando potenciar a utilização do seu registo. A mobilidade do cidadão trouxe mais desafios, a existência de dados dispersos, heterogeneidade de sistemas e formatos e grande dificuldade de partilha e comunicação entre os prestadores de serviços. Para responder a estes requisitos, diversas soluções apareceram, maioritariamente baseadas em acordos entre instituições, regiões e países. Estas abordagens são usualmente assentes em cenários federativos muito complexos e fora do controlo do paciente. Abordagens mais recentes, como os registos pessoais de saúde (PHR), permitem o controlo do paciente, mas levantam duvidas da integridade clinica da informação aos profissionais clínicos. Neste cenário os dados saem de redes e sistemas controlados, aumentando o risco de segurança da informação. Assim sendo, são necessárias novas soluções que permitam uma colaboração confiável entre os diversos atores e sistemas. Esta tese apresenta uma solução que permite a colaboração aberta e segura entre todos os atores envolvidos nos cuidados de saúde. Baseia-se numa arquitetura orientada ao serviço, que lida com a informação clínica usando o conceito de envelope fechado. Foi modelada recorrendo aos princípios de funcionalidade e privilégios mínimos, com o propósito de fornecer proteção dos dados durante a transmissão, processamento e armazenamento. O controlo de acesso _e estabelecido por políticas definidas pelo paciente. Cartões de identificação eletrónicos, ou certificados similares são utilizados para a autenticação, permitindo uma inscrição automática. Todos os componentes requerem autenticação mútua e fazem uso de algoritmos de cifragem para garantir a privacidade dos dados. Apresenta-se também um modelo de ameaça para a arquitetura, por forma a analisar se as ameaças possíveis foram mitigadas ou se são necessários mais refinamentos. A solução proposta resolve o problema da mobilidade do paciente e a dispersão de dados, capacitando o cidadão a gerir e a colaborar na criação e manutenção da sua informação de saúde. A arquitetura permite uma colaboração aberta e segura, possibilitando que o paciente tenha registos mais ricos, atualizados e permitindo o surgimento de novas formas de criar e usar informação clínica ou complementar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Although the genetic code is generally viewed as immutable, alterations to its standard form occur in the three domains of life. A remarkable alteration to the standard genetic code occurs in many fungi of the Saccharomycotina CTG clade where the Leucine CUG codon has been reassigned to Serine by a novel transfer RNA (Ser-tRNACAG). The host laboratory made a major breakthrough by reversing this atypical genetic code alteration in the human pathogen Candida albicans using a combination of tRNA engineering, gene recombination and forced evolution. These results raised the hypothesis that synthetic codon ambiguities combined with experimental evolution may release codons from their frozen state. In this thesis we tested this hypothesis using S. cerevisiae as a model system. We generated ambiguity at specific codons in a two-step approach, involving deletion of tRNA genes followed by expression of non-cognate tRNAs that are able to compensate the deleted tRNA. Driven by the notion that rare codons are more susceptible to reassignment than those that are frequently used, we used two deletion strains where there is no cognate tRNA to decode the rare CUC-Leu codon and AGG-Arg codon. We exploited the vulnerability of the latter by engineering mutant tRNAs that misincorporate Ser at these sites. These recombinant strains were evolved over time using experimental evolution. Although there was a strong negative impact on the growth rate of strains expressing mutant tRNAs at high level, such expression at low level had little effect on cell fitness. We found that not only codon ambiguity, but also destabilization of the endogenous tRNA pool has a strong negative impact in growth rate. After evolution, strains expressing the mutant tRNA at high level recovered significantly in several growth parameters, showing that these strains adapt and exhibit higher tolerance to codon ambiguity. A fluorescent reporter system allowing the monitoring of Ser misincorporation showed that serine was indeed incorporated and possibly codon reassignment was achieved. Beside the overall negative consequences of codon ambiguity, we demonstrated that codons that tolerate the loss of their cognate tRNA can also tolerate high Ser misincorporation. This raises the hypothesis that these codons can be reassigned to standard and eventually to new amino acids for the production of proteins with novel properties, contributing to the field of synthetic biology and biotechnology.