864 resultados para Quinolonas: Aplicações biomédicas


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho de pesquisa descreve dois estudos de caso de métodos quimiométricos empregados para a quantificação de hidrocarbonetos policíclicos aromáticos HPAs (naftaleno, fluoreno, fenantreno e fluoranteno) em água potável usando espectroscopia de fluorescência molecular e a classificação e caracterização de sucos de uva e seus parâmetros de qualidade através de espectroscopia de infravermelho próximo. O objetivo do primeiro estudo é a aplicação combinada de métodos quimiométricos de segunda ordem (N-PLS, U-PLS, U-PLS/RBL e PARAFAC) e espectrofluorimetria para determinação direta de HPAs em água potável, visando contribuir para o conhecimento do potencial destas metodologias como alternativa viável para a determinação tradicional por cromatografia univariada. O segundo estudo de caso destinado à classificação e determinação de parâmetros de qualidade de sucos de uva, densidade relativa e teor de sólidos solúveis totais, foi medida por espectroscopia de infravermelho próximo e métodos quimiométricos. Diversos métodos quimiométricos, tais como HCA, PLS-DA, SVM-DA e SIMCA foram investigados para a classificação amostras de sucos de uva ao mesmo tempo que métodos de calibração multivariada de primeira ordem, tais como PLS, iPLS e SVM-LS foram usadas para a predição dos parâmetros de qualidade. O princípio orientador para o desenvolvimento dos estudos aqui descritos foi a necessidade de metodologias analíticas com custo, tempo de execução e facilidade de operação melhores e menor produção de resíduos do que os métodos atualmente utilizados para a quantificação de HPAs, em água de torneira, e classificação e caracterização das amostras de suco de uva e seus parâmetros de qualidade

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, desenvolveu-se um sistema de detecção fotoacústico para medidas simultâneas e independentes dos sinais fotoacústicos dianteiro e traseiro, utilizando dois microfones e um único feixe de excitação. Utiliza-se a diferença de fase entre estes sinais para a determinação da difusividade térmica de materiais, com base na abordagem teórica da técnica da Diferença de Fase dos Dois Feixes (T2F). Na metodologia apresentada não há a necessidade de se alternar o feixe de excitação entre as faces da amostra. Esta característica torna mais rápido o procedimento de medida e simplifica o monitoramento automatizado de processos dinâmicos que afetam a difusividade térmica do material, como a cura de resinas poliméricas. É apresentado o procedimento utilizado para determinar a diferença entre as fases intrínsecas dos microfones e o método empregado para compensar tal diferença e, assim, obter a defasagem entre os sinais fotoacústicos dianteiro e traseiro. O sistema de detecção desenvolvido é avaliado em medidas de difusividade térmica de amostras metálicas (aço inoxidável AISI 304 e aço SAE 1020) e poliméricas (polipropileno e polietileno de baixa densidade). Os resultados obtidos concordam de forma satisfatória com dados disponíveis na literatura. Finalmente, a aplicação do sistema proposto ao monitoramento de cura de amostras de resina epóxi indicou sua potencialidade de acompanhar, em tempo real, este tipo de processo dinâmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, três técnicas para resolver numericamente problemas inversos de transporte de partículas neutras a uma velocidade para aplicações em engenharia nuclear são desenvolvidas. É fato conhecido que problemas diretos estacionários e monoenergéticos de transporte são caracterizados por estimar o fluxo de partículas como uma função-distribuição das variáveis independentes de espaço e de direção de movimento, quando os parâmetros materiais (seções de choque macroscópicas), a geometria, e o fluxo incidente nos contornos do domínio (condições de contorno), bem como a distribuição de fonte interior são conhecidos. Por outro lado, problemas inversos, neste trabalho, buscam estimativas para o fluxo incidente no contorno, ou a fonte interior, ou frações vazio em barras homogêneas. O modelo matemático usado tanto para os problemas diretos como para os problemas inversos é a equação de transporte independente do tempo, a uma velocidade, em geometria unidimensional e com o espalhamento linearmente anisotrópico na formulação de ordenadas discretas (SN). Nos problemas inversos de valor de contorno, dado o fluxo emergente em um extremo da barra, medido por um detector de nêutrons, por exemplo, buscamos uma estimativa precisa para o fluxo incidente no extremo oposto. Por outro lado, nos problemas inversos SN de fonte interior, buscamos uma estimativa precisa para a fonte armazenada no interior do domínio para fins de blindagem, sendo dado o fluxo emergente no contorno da barra. Além disso, nos problemas inversos SN de fração de vazio, dado o fluxo emergente em uma fronteira da barra devido ao fluxo incidente prescrito no extremo oposto, procuramos por uma estimativa precisa da fração de vazio no interior da barra, no contexto de ensaios não-destrutivos para aplicações na indústria. O código computacional desenvolvido neste trabalho apresenta o método espectronodal de malha grossa spectral Greens function (SGF) para os problemas diretos SN em geometria unidimensional para gerar soluções numéricas precisas para os três problemas inversos SN descritos acima. Para os problemas inversos SN de valor de contorno e de fonte interior, usamos a propriedade da proporcionalidade da fuga de partículas; ademais, para os problemas inversos SN de fração de vazio, oferecemos a técnica a qual nos referimos como o método físico da bissecção. Apresentamos resultados numéricos para ilustrar a precisão das três técnicas, conforme descrito nesta tese.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A acústica submarina vem sendo estudada por décadas, mas redes submarinas com transmissão acústica e protocolos específicos para a comunicação neste meio são campos de pesquisa que estão iniciando. Recentemente alguns simuladores, baseados no NS-2, foram desenvolvidos para o estudo destas redes. Este trabalho avalia através de simulações a viabilidade de aplicações genéricas de monitoramento e controle em redes acústicas submarinas. São propostas e utilizadas três topologias básicas para redes acústicas submarinas: linha, quadro e cubo e dois protocolos MAC: Broadcast e R-MAC. Em nossas análises comparamos esses dois protocolos em relação ao consumo total de energia e o atraso total na rede. Os resultados mostram que essas topologias associadas aos protocolos MAC atendem as necessidades e as peculiaridades da grande maioria das aplicações de monitoramento e controle que utilizam redes acústicas submarinas. O objetivo deste estudo não foi determinar qual a melhor topologia ou o melhor tipo de protocolo de acesso ao meio, mais sim determinar qual a configuração de rede mais indicada para determinada aplicação levando em consideração as características da cada uma delas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresentamos as etapas para a utilização do método da Programação Dinâmica, ou Princípio de Otimização de Bellman, para aplicações de controle ótimo. Investigamos a noção de funções de controle de Lyapunov (FCL) e sua relação com a estabilidade de sistemas autônomos com controle. Uma função de controle de Lyapunov deverá satisfazer a equação de Hamilton-Jacobi-Bellman (H-J-B). Usando esse fato, se uma função de controle de Lyapunov é conhecida, será então possível determinar a lei de realimentação ótima; isto é, a lei de controle que torna o sistema globalmente assintóticamente controlável a um estado de equilíbrio. Como aplicação, apresentamos uma modelagem matemática adequada a um problema de controle ótimo de certos sistemas biológicos. Este trabalho conta também com um breve histórico sobre o desenvolvimento da Teoria de Controle de forma a ilustrar a importância, o progresso e a aplicação das técnicas de controle em diferentes áreas ao longo do tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esse trabalho compreende dois diferentes estudos de caso: o primeiro foi a respeito de um medicamento para o qual foi desenvolvida uma metodologia para determinar norfloxacino (NOR) por espectrofluorimetria molecular e validação por HPLC. Primeiramente foi desenvolvida uma metodologia por espectrofluorimetria onde foram feitos alguns testes preliminares a fim de estabelecer qual valor de pH iria fornecer a maior intensidade de emissão. Após fixar o pH foi feita a determinação de NOR em padrões aquosos e soluções do medicamento usando calibração univariada. A faixa de concentração trabalhada foi de 0500 μg.L-1. O limite de detecção para o medicamento foi de 6,9 μg.L-1 enquanto que o de quantificação foi de 24,6 μg.L-1. Além dessas, outras figuras de mérito também foram estimadas para desenvolvimento da metodologia e obtiveram resultados muito satisfatórios, como por exemplo, os testes de recuperação no qual a recuperação do analito foi de 99.5 a 103.8%. Para identificação e quantificação do NOR da urina foi necessário diluir a amostra de urina (estudada em dois diferentes níveis de diluição: 500 e 1000 x) e também uso do método da adição de padrão (na mesma faixa de concentração usada para medicamento). Após a aquisição do espectro, todos foram usados para construção do tensor que seria usado no PARAFAC. Foi possível estimar as figuras de mérito como limite de detecção de 11.4 μg.L-1 and 8.4 μg.L-1 (diluição de 500 e 1000 x respectivamente) e limite de quantificação de 34 μg.L-1 e 25.6 μg.L-1 (diluição de 500 x e 1000 x respectivamente). O segundo estudo de caso foi na área alimentícia no qual se usou espectroscopia NIR e FT MIR acopladas a quimiometria para discriminar óleo de soja transgênica e não transgênica. Os espectros dos óleos não mostraram diferença significativa em termos visuais, sendo necessário usar ferramentas quimiométricas capazes de fazer essa distinção. Tanto para espectroscopia NIR quanto FT MIR foi feito o PCA a fim de identificar amostras discrepantes e que influenciariam o modelo de forma negativa. Após efetuar o PCA, foram usadas três diferentes técnicas para discriminar os óleos: SIMCA, SVM-DA e PLS-DA, sendo que para cada técnica foram usados também diferentes pré processamento. No NIR, apenas para um pré processamento se obteve resultados satisfatórios nas três técnicas, enquanto que para FT-MIR ao se usar PLS-DA se obteve 100% de acerto na classificação para todos os pré processamentos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em diversos estados do Brasil, foram relatadas epidemias de infecções causadas por micobactérias de crescimento rápido (MCR) desde o ano 2000. A maioria dos casos foi principalmente associada ao clone BRA100 de Mycobacterium massiliense, recentemente renomeada para Mycobacterium abscessus subsp. bolletii, isolado de pacientes submetidos a procedimentos invasivos nos quais os instrumentos médicos não foram adequadamente esterilizados e/ou desinfetados. Sendo as quinolonas uma opção no tratamento de infecções por MCR e sugerida para esquemas terapêuticos para esses surtos, foram avaliadas nesse trabalho as atividades in vitro de quatro gerações de quinolonas para cepas clinicas e de referência de MCR através da microdiluição em caldo. Também foram analisadas as sequências peptídicas das regiões determinantes da resistência a quinolonas (RDRQ) das subunidades A e B da DNA gyrase (GyrA e GyrB) após o seqüenciamento de DNA seguido pela tradução da sequência de aminoácidos. Cinquenta e quatro cepas de M. abscessus subsp bolletii, incluindo o clone BRA100, isoladas em diferentes estados do Brasil, e 19 cepas de referência de MCR foram caracterizadas. Todas as 54 cepas clínicas de M. abscessus subsp. bolletii foram resistentes a todas as gerações de quinolonas e mostraram o mesmo resíduo nas RDRQ, incluindo Ala-83 em GyrA, Arg-447 e Asp-464 em GyrB, descritos como sendo responsáveis por gerar um baixo nível de resistência a quinolonas em micobactérias. Porém, outras espécies de MCR apresentaram diferentes susceptibilidade e padrões de mutações contrários aos classicamente já definidos, sugerindo que outros mecanismos de resistência, diferentes de mutações em gyrA e gyrB também possam estar envolvidos na alta resistência a quinolonas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Num regime balísstico e a baixas temperaturas, a fórmula de Landauer dá uma boa descrição do transporte de calor para nano-junções conectadas a dois fios acoplados a banhos térmicos a temperaturas diferentes. Partindo de um modelo microscópico e utilizando o método de funções de Green fora do equilíbrio, é possível obter uma expressão para a condutância térmica na nano-junção equivalente a fórmula de Landauer. Esta depende dos valores das constantes de acoplamento entre os modos de fônons da região central e dos fios, além do gradiente térmico. A expressão para a condutância térmica é muito semelhante aquela obtida para a condutância elétrica. Neste trabalho nós apresentamos o método para o cálculo de grandezas relacionadas ao transporte térmico em um regime onde não há um gradiente de temperatura entre os reservatórios mas o sistema sofre uma perturbação dependente do tempo. Ou seja, com uma escolha conveniente da parametrização temporal dos termos de acoplamento entre a nano-junção e os fios é possível produzir uma corrente de calor na ausência de diferença de temperaturas entre os banhos térmicos aos quais os fios estão conectados. Esse fenômeno caracteriza o bombeamento de calor. Desenvolvemos uma teoria de transporte dependente do tempo para descrever o bombeamento. A teoria é geral, dependendo da densidade de fônons, da intensidade e dependência temporal do acoplamento. Aplicamos o formalismo em um modelo simples demonstrando que, em princípio, é possível bombear calor através de uma cadeia linear de átomos sem gradiente térmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fotocatalisadores baseados em nanopartículas de dióxido de titânio modificados fornecem soluções em potencial para a mineralização de poluentes orgânicos em meio aquoso. Agentes modificadores têm sido amplamente investigados com o objetivo de promover a fotoativação pela luz visível. Foram estudadas a nível fundamental até aqui, as modificações estruturais, texturais e óticas causadas pela introdução de silício e nitrogênio na rede da titânia. Titânias puras (TiO2) e modificadas nanoestruturadas, particularmente titânias modificadas com silício (TiO2-SiO2), com razões atômicas Si/Ti de 0,1, 0,2 e 0,3 foram sintetizadas pelo método sol-gel a partir da hidrólise ácida de isopropóxido de titânio(IV) e tetraetoxisilano. As metodolo-gias sintéticas desenvolvidas tentaram aderir aos princípios da Química Verde, dispensando o uso de atmosfera inerte e temperatura e pressão elevadas, o que foi alcançado utilizando-se, principalmente, a agitação ultrassônica. Titânias modificadas com silício e dopadas com ni-trogênio (TiO2-SiO2-N) foram obtidas a partir do pré-tratamento de TiO2-SiO2 a 500 C ao ar e então submetidas ao fluxo de amônia (NH3) a 600 C por 1-3 h e, após resfriamento, foram recozidas a 400 C ao ar. Amostras distintas foram caracterizadas, na forma de pó seco e após calcinação entre 400600 C, por difração de raios X, adsorção de nitrogênio, microscopia eletrônica de varredura e espectroscopia de refletância difusa no UV-Visível. As titânias pu-ras, obtidas principalmente variando-se a razão de hidrólise, foram cristalizadas na forma de anatásio como fase predominante até 600 C, além de traços de brookita presente até 500 C. O rutilo foi identificado a partir de 600 C como fase minoritária, embora apresentando tama-nhos de cristal significativamente maiores que os estimados para o cristal de anatásio. As titâ-nias modificadas com até 20% de silício apresentaram notável estabilidade térmica, evidenci-ada pela presença exclusiva de anatásio até 900 C. Foi também observado o aparecimento de macroporos com diâmetro médio em torno de 55 nm após calcinação a 400 C, diferentemente do que se observou nas amostras em geral. A introdução de baixo teor de silício assegurou às titânias calcinadas valores elevados de área específica, atribuído ao efeito de contenção acentuada na taxa de crescimento do cristal. As titânias modificadas com silício e as titânias puras obtidas com taxa de hidrólise 25:1 para a razão H2O : Ti apresentaram mesoporos com diâmetros médios de mesma dimensão do cristal. As titânias modificadas com silício e dopa-das com nitrogênio apresentaram absorção na região visível entre 400-480 nm, com discreta redução da energia de band gap para as transições eletrônicas consideradas. Titânias calcina-das a 300−400 C apresentaram desempenho fotocatalítico semelhante ao TiO2 P25 da De-gussa sob irradiação UV, na degradação do azo corante Reactive Yellow 145 em soluções a-quosas em pH 5 a 20 1C

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partir das dimensões dos indivíduos pode-se definir dimensionamentos adequados para os produtos e postos de trabalho, proporcionando segurança e conforto aos usuários. Com o avanço da tecnologia de digitalização de imagens (escaneamento) 3D, é possível tirar algumas medidas de maneira mais rápida e com a redução da presença do entrevistado durante o processo. No entanto, faltam estudos que avaliem estas tecnologias no Brasil, sendo necessária a realização de uma comparação das tecnologias e das respectivas precisões para que seu uso em pesquisas. Com o objetivo de oferecer métodos comparativos para escolha dos marcadores e equipamentos a serem utilizados em uma pesquisa antropométrica tridimensional da população brasileira, no presente estudo estão comparadas duas tecnologias de escaneamento: o sistema a laser WBX da empresa norte americana Cyberware e o sistema MHT da empresa russa Artec Group. O método para avaliação da precisão dimensional dos dados advindos desses equipamentos de digitalização de imagens 3D teve cinco etapas: Estudo dos processos de escaneamento; Escaneamento dos marcadores de pontos anatômicos; Escaneamento utilizando um corpo de prova cilíndrico; Escaneamento de um manequim; Escaneamento de um voluntário que teve seus pontos anatômicos marcados para a retirada de medidas. Foi feita uma comparação entre as medidas retiradas manualmente, por meio de antropômetro e virtualmente, com o auxílio do software de modelagem tridimensional Rhinoceros. Em relação aos resultados obtidos na avaliação do manequim e do voluntário, concluiu-se que a magnitude do erro absoluto é semelhante para ambos os scanners, e permanece constante independentemente das dimensões sob análise. As principais diferenças são em relação às funcionalidades dos equipamentos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados com o objetivo de reduzir a necessidade de energia de um sistema, sendo largamente usada nas indústrias de processos. Entretanto, uma rede está sujeita à deposição, a qual causa um decréscimo na efetividade térmica dos trocadores. Este fenômeno é provocado pelo acúmulo de materiais indesejáveis sobre a superfície de troca térmica. Para compensar a redução de efetividade térmica causada pela deposição, torna-se necessário um aumento no consumo de utilidades. Isto eleva os custos de operação, assim como os custos de manutenção. Estima-se que os custos associados à deposição atinjam bilhões de dólares anualmente. Em face a este problema, vários trabalhos de pesquisa têm investigado métodos para prevenir a deposição e/ou gerenciar as operações em uma rede. Estudos envolvem desde a otimização de trocadores de calor individuais, simulação e monitoramento de redes, até a otimização da programação das paradas para limpeza de trocadores de calor em uma rede. O presente trabalho apresenta a proposição de um modelo para simulação de redes de trocadores de calor com aplicações no gerenciamento da deposição. Como conseqüência, foi desenvolvido um conjunto de códigos computacionais integrados, envolvendo a simulação estacionária de redes, a simulação pseudo-estacionária do comportamento de redes em relação à evolução da deposição, a estimação de parâmetros para diagnóstico do problema da deposição e a otimização operacional deste tipo de sistema. Com relação ao simulador estacionário, o modelo da rede foi formulado matricialmente e os balanços de massa e energia são resolvidos como sistemas de equações lineares. Do ponto de vista da otimização, o procedimento proposto redistribui as vazões, visando um melhor aproveitamento térmico dos trocadores da rede, como, por exemplo, buscando as vazões da rede que maximizem a temperatura da corrente de entrada no forno em unidades de destilação atmosférica de óleo cru. Os algoritmos foram implementados em alguns exemplos da literatura e em um problema de uma refinaria real. Os resultados foram promissores, o que sugere que a proposta deste trabalho pode vir a ser uma abordagem interessante para operações envolvendo redes de trocadores de calor

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho foi realizada a modificação química do poli(cloreto de vinila) (PVC) pela sua reação com azida de sódio, onde alguns dos seus átomos de cloro foram substituídos por azidas. Em seguida o grupo incorporado foi transformado em triazóis por uma reação de cicloadição 1,3 entre o polímero modificado e propiolato de etila, sendo a reação catalisada por iodeto de cobre. Essas reações foram conduzidas sob aquecimento convencional e empregando irradiação de micro-ondas. Inicialmente, a reação incorporou 20% de triazol no PVC, sendo avaliadas as condições reacionais ideais. Essas condições foram usadas para a formação de novos copolímeros com diferentes teores de triazóis incorporados. Os produtos obtidos foram usados para o suporte de paládio que é utilizado como catalisador na reação de Suzuki-Miyaura. Todos os copolímeros foram caracterizados por espectroscopia na região do infravermelho com transformada de Fourier (FTIR)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Refletindo sobre a emergência da categoria da transexualidade como a conhecemos na atualidade e seus desdobramentos sociais, políticos e subjetivos, especialmente a partir da segunda metade do século XX, procuramos nessa dissertação discutir o contexto que possibilitou o fenômeno da medicalização tecnológica dessa categoria. Ao desenvolvê-lo, essa pesquisa aponta atores da categoria médica e da militância que compuseram uma relação de negociação entre a demanda do indivíduo transexual e as possibilidades técnicas, legais e discursivas da biomedicina. Inicialmente, buscamos compreender como os profissionais médicos, psiquiatras e psicanalistas, pertencentes à ciência da sexologia a partir do fim do século XIX, incluíram em seus discursos e práticas os comportamentos sexuais considerados desviantes na época. O homossexualismo e o travestismo, representantes dessas perversões, constituíram categorias diagnósticas e identitárias de fundamental importância para a inauguração da transexualidade enquanto categoria nosológica médico-psiquiátrica e enquanto tipo humano, ou seja, uma forma subjetiva de experiência e identidade de gênero. Diante disso, e considerando o contexto sociocultural e o desenvolvimento biotecnológico hormonal e cirúrgico na época, temos a hipótese que a criação dessa categoria só foi possível devido à incorporação em indivíduos transexuais de procedimentos tecnocientíficos que possibilitaram que suas transformações anatomobiológicas construíssem o gênero desejado. A medicalização da transexualidade e sua regulação médico-jurídica, ao mesmo tempo em que são vetores de patologização e de estigma, possibilitaram o acesso à essas transformações corporais. Essa pesquisa problematiza o acesso à essas tecnologias, condicionado à obtenção do diagnóstico psiquiátrico, e aborda a relação interativa entre os aspectos discursivos e práticos da categoria médica e dos indivíduos transexuais e militância, assim como seus efeitos que iluminam essa questão. Finalmente, com o objetivo de ilustrar e compreender a interação entre a tecnologia e o corpo transexual, descrevemos e discutimos brevemente os principais procedimentos aplicados em homens transexuais e mulheres transexuais na transição de gênero.