801 resultados para New technology


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Published as an article in: Economics Letters, 2010, vol. 107, issue 2, pages 284-287.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

[ES] En los últimos tiempos existe un énfasis creciente en la comercialización de la investigación universitaria a través de la creación de empresas (spin-offs). Ahora bien, los fenómenos que el concepto de spin-off universitaria trata de abarcar no son homogéneos. Por esta razón, parece conveniente dilucidar las múltiples realidades que abarca organizándolas mediante tipologías.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cyber-physical systems integrate computation, networking, and physical processes. Substantial research challenges exist in the design and verification of such large-scale, distributed sensing, ac- tuation, and control systems. Rapidly improving technology and recent advances in control theory, networked systems, and computer science give us the opportunity to drastically improve our approach to integrated flow of information and cooperative behavior. Current systems rely on text-based spec- ifications and manual design. Using new technology advances, we can create easier, more efficient, and cheaper ways of developing these control systems. This thesis will focus on design considera- tions for system topologies, ways to formally and automatically specify requirements, and methods to synthesize reactive control protocols, all within the context of an aircraft electric power system as a representative application area.

This thesis consists of three complementary parts: synthesis, specification, and design. The first section focuses on the synthesis of central and distributed reactive controllers for an aircraft elec- tric power system. This approach incorporates methodologies from computer science and control. The resulting controllers are correct by construction with respect to system requirements, which are formulated using the specification language of linear temporal logic (LTL). The second section addresses how to formally specify requirements and introduces a domain-specific language for electric power systems. A software tool automatically converts high-level requirements into LTL and synthesizes a controller.

The final sections focus on design space exploration. A design methodology is proposed that uses mixed-integer linear programming to obtain candidate topologies, which are then used to synthesize controllers. The discrete-time control logic is then verified in real-time by two methods: hardware and simulation. Finally, the problem of partial observability and dynamic state estimation is ex- plored. Given a set placement of sensors on an electric power system, measurements from these sensors can be used in conjunction with control logic to infer the state of the system.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Understanding the mechanisms of enzymes is crucial for our understanding of their role in biology and for designing methods to perturb or harness their activities for medical treatments, industrial processes, or biological engineering. One aspect of enzymes that makes them difficult to fully understand is that they are in constant motion, and these motions and the conformations adopted throughout these transitions often play a role in their function.

Traditionally, it has been difficult to isolate a protein in a particular conformation to determine what role each form plays in the reaction or biology of that enzyme. A new technology, computational protein design, makes the isolation of various conformations possible, and therefore is an extremely powerful tool in enabling a fuller understanding of the role a protein conformation plays in various biological processes.

One such protein that undergoes large structural shifts during different activities is human type II transglutaminase (TG2). TG2 is an enzyme that exists in two dramatically different conformational states: (1) an open, extended form, which is adopted upon the binding of calcium, and (2) a closed, compact form, which is adopted upon the binding of GTP or GDP. TG2 possess two separate active sites, each with a radically different activity. This open, calcium-bound form of TG2 is believed to act as a transglutaminse, where it catalyzes the formation of an isopeptide bond between the sidechain of a peptide-bound glutamine and a primary amine. The closed, GTP-bound conformation is believed to act as a GTPase. TG2 is also implicated in a variety of biological and pathological processes.

To better understand the effects of TG2’s conformations on its activities and pathological processes, we set out to design variants of TG2 isolated in either the closed or open conformations. We were able to design open-locked and closed-biased TG2 variants, and use these designs to unseat the current understanding of the activities and their concurrent conformations of TG2 and explore each conformation’s role in celiac disease models. This work also enabled us to help explain older confusing results in regards to this enzyme and its activities. The new model for TG2 activity has immense implications for our understanding of its functional capabilities in various environments, and for our ability to understand which conformations need to be inhibited in the design of new drugs for diseases in which TG2’s activities are believed to elicit pathological effects.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The epidemic of HIV/AIDS in the United States is constantly changing and evolving, starting from patient zero to now an estimated 650,000 to 900,000 Americans infected. The nature and course of HIV changed dramatically with the introduction of antiretrovirals. This discourse examines many different facets of HIV from the beginning where there wasn't any treatment for HIV until the present era of highly active antiretroviral therapy (HAART). By utilizing statistical analysis of clinical data, this paper examines where we were, where we are and projections as to where treatment of HIV/AIDS is headed.

Chapter Two describes the datasets that were used for the analyses. The primary database utilized was collected by myself from an outpatient HIV clinic. The data included dates from 1984 until the present. The second database was from the Multicenter AIDS Cohort Study (MACS) public dataset. The data from the MACS cover the time between 1984 and October 1992. Comparisons are made between both datasets.

Chapter Three discusses where we were. Before the first anti-HIV drugs (called antiretrovirals) were approved, there was no treatment to slow the progression of HIV. The first generation of antiretrovirals, reverse transcriptase inhibitors such as AZT (zidovudine), DDI (didanosine), DDC (zalcitabine), and D4T (stavudine) provided the first treatment for HIV. The first clinical trials showed that these antiretrovirals had a significant impact on increasing patient survival. The trials also showed that patients on these drugs had increased CD4+ T cell counts. Chapter Three examines the distributions of CD4 T cell counts. The results show that the estimated distributions of CD4 T cell counts are distinctly non-Gaussian. Thus distributional assumptions regarding CD4 T cell counts must be taken, into account when performing analyses with this marker. The results also show the estimated CD4 T cell distributions for each disease stage: asymptomatic, symptomatic and AIDS are non-Gaussian. Interestingly, the distribution of CD4 T cell counts for the asymptomatic period is significantly below that of the CD4 T cell distribution for the uninfected population suggesting that even in patients with no outward symptoms of HIV infection, there exists high levels of immunosuppression.

Chapter Four discusses where we are at present. HIV quickly grew resistant to reverse transcriptase inhibitors which were given sequentially as mono or dual therapy. As resistance grew, the positive effects of the reverse transcriptase inhibitors on CD4 T cell counts and survival dissipated. As the old era faded a new era characterized by a new class of drugs and new technology changed the way that we treat HIV-infected patients. Viral load assays were able to quantify the levels of HIV RNA in the blood. By quantifying the viral load, one now had a faster, more direct way to test antiretroviral regimen efficacy. Protease inhibitors, which attacked a different region of HIV than reverse transcriptase inhibitors, when used in combination with other antiretroviral agents were found to dramatically and significantly reduce the HIV RNA levels in the blood. Patients also experienced significant increases in CD4 T cell counts. For the first time in the epidemic, there was hope. It was hypothesized that with HAART, viral levels could be kept so low that the immune system as measured by CD4 T cell counts would be able to recover. If these viral levels could be kept low enough, it would be possible for the immune system to eradicate the virus. The hypothesis of immune reconstitution, that is bringing CD4 T cell counts up to levels seen in uninfected patients, is tested in Chapter Four. It was found that for these patients, there was not enough of a CD4 T cell increase to be consistent with the hypothesis of immune reconstitution.

In Chapter Five, the effectiveness of long-term HAART is analyzed. Survival analysis was conducted on 213 patients on long-term HAART. The primary endpoint was presence of an AIDS defining illness. A high level of clinical failure, or progression to an endpoint, was found.

Chapter Six yields insights into where we are going. New technology such as viral genotypic testing, that looks at the genetic structure of HIV and determines where mutations have occurred, has shown that HIV is capable of producing resistance mutations that confer multiple drug resistance. This section looks at resistance issues and speculates, ceterus parabis, where the state of HIV is going. This section first addresses viral genotype and the correlates of viral load and disease progression. A second analysis looks at patients who have failed their primary attempts at HAART and subsequent salvage therapy. It was found that salvage regimens, efforts to control viral replication through the administration of different combinations of antiretrovirals, were not effective in 90 percent of the population in controlling viral replication. Thus, primary attempts at therapy offer the best change of viral suppression and delay of disease progression. Documentation of transmission of drug-resistant virus suggests that the public health crisis of HIV is far from over. Drug resistant HIV can sustain the epidemic and hamper our efforts to treat HIV infection. The data presented suggest that the decrease in the morbidity and mortality due to HIV/AIDS is transient. Deaths due to HIV will increase and public health officials must prepare for this eventuality unless new treatments become available. These results also underscore the importance of the vaccine effort.

The final chapter looks at the economic issues related to HIV. The direct and indirect costs of treating HIV/AIDS are very high. For the first time in the epidemic, there exists treatment that can actually slow disease progression. The direct costs for HAART are estimated. It is estimated that the direct lifetime costs for treating each HIV infected patient with HAART is between $353,000 to $598,000 depending on how long HAART prolongs life. If one looks at the incremental cost per year of life saved it is only $101,000. This is comparable with the incremental costs per year of life saved from coronary artery bypass surgery.

Policy makers need to be aware that although HAART can delay disease progression, it is not a cure and HIV is not over. The results presented here suggest that the decreases in the morbidity and mortality due to HIV are transient. Policymakers need to be prepared for the eventual increase in AIDS incidence and mortality. Costs associated with HIV/AIDS are also projected to increase. The cost savings seen recently have been from the dramatic decreases in the incidence of AIDS defining opportunistic infections. As patients who have been on HAART the longest start to progress to AIDS, policymakers and insurance companies will find that the cost of treating HIV/AIDS will increase.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Atualmente, a irradiação por micro-ondas tem se mostrado uma boa fonte de energia para a realização de sínteses orgânicas, devido a uma série de vantagens que essa nova tecnologia apresenta. Entretanto, ainda existem poucos estudos sobre polimerizações assistidas por micro-ondas. Neste trabalho foram realizadas a síntese da 2-fenil-2-oxazolina e a sua polimerização, em solução e em massa, assistidas por micro-ondas e pelo método convencional (térmico). As reações irradiadas por micro-ondas foram feitas empregando-se vaso aberto ou fechado, e nas polimerizações foram usados como iniciadores o iodeto de metila e o eterado de trifluoreto de boro. Os heterocíclicos e os polímeros produzidos foram caracterizados por espectroscopia na região do infravermelho e ressonância magnética nuclear de núcleo de hidrogênio. Para as reações assistidas por micro-ondas os rendimentos foram bons e compatíveis com os obtidos pelo método convencional. Para a reação de síntese da 2-fenil-2-oxazolina o rendimento ficou na faixa de 70% e de suas polimerizações em torno de 80%, sendo as reações irradiadas por micro-ondas realizadas em um tempo reacional muito inferior ao do método térmico. A técnica de irradiação de micro-ondas para as reações estudadas se mostrou eficiente para os parâmetros utilizados na síntese do monômero e na sua polimerização em massa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

[EU]3D inprimaketa gaur egun, biomedikuntzaren garapenerako aukera ezberdinak ematen dituen teknologia iraultzaile gisa aurkezten da; bai medikuntza arloan formazio eta ikerkuntzarako erreminta gisa, baita dispositibo berrien diseinu eta fabrikaziorako. Bere abantailarik aipagarriena prototipaketa azkarra da. Gainera, teknologia honek barne egitura eta forma ezberdineko objektuak fabrikatzea ahalbidetzen du koste lehiakor batean. Lan honen helburua 3D inprimagailuen bidezko prototipoen fabrikazioan zentratzen da, horretarako lehengai bezala polimero biodegradagarri eta biobateragarria erabiliz. Horrez gain, metodo tradizionalarekin konparatuz teknologia honek izan ditzakeen abantailak ere aztertu nahi dira, ez bakarrik alde ekonomikoari edo denborari begira, baita fabrikatutako objektuen propietateei begira ere. Dena dela, horrekin hasi aurretik ezaugarritze fisiko eta termikoa burutu beharko zaie lehengaiei, 3D inprimagailuaren parametroen aukeraketa egokia egiteko eta parametro horien eta amaierako produktuaren kalitate, egitura eta propietateen artean erlazio egokia ezartzeko. Lan hau aurrera eramateko poli(L-laktida)-rekin (PLLA) egingo da lan, bai ehun ingeniaritzan baita hezurren apurketen finkapenerako dispositiboetan oso erabilia izan den polimeroa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A dissertação procura mapear a produção de arte e vídeo que tocam questões relativas à interatividade, às novas tecnologias e à participação do espectador para a construção da obra. Parte da noção de rizoma, onde a obra é colocada em um contexto de rede, que atua se relacionando não somente com seus elementos, mas com toda uma história da produção videográfica

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nosso objetivo neste trabalho é investigar como o design gráfico se relaciona com os meios de produção da indústria gráfica brasileira. Não é comum encontrar referências abordando temas que relacionam design e tecnologia em livros sobre a história do Brasil, o que demonstra a urgência do resgate histórico de indústrias que implementaram novas tecnologias para atender a demandas projetuais e mercadológicas. Sediada na cidade do Rio de Janeiro, a clicheria Latt-Mayer como era comumente chamada, era sinônimo de qualidade e tecnologia. Entre seus clientes podemos apontar agências de publicidade, editoras, escritórios de designers e gráficas de todo país. Esta pesquisa se baseia em um corpus composto por imagens, documentos, manuais técnicos, reportagens, matrizes e depoimentos com pessoas que estiveram diretamente envolvidas com essa empresa. Catalogamos maquinaria e técnicas utilizadas, além de projetos gráficos relevantes que tiveram matrizes e provas produzidas na empresa. Por meio deste trabalho, é possível visualizar um abrangente painel histórico, que contempla um período em que ocorreram significativas transformações na relação entre designers e tecnologia na indústria gráfica brasileira.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O potencial eólico do Brasil, de vento firme e com viabilidade econômica de aproveitamento, é de 143 GW. Isso equivale ao dobro de toda a capacidade da geração já instalada no país. No Brasil, a energia eólica tem uma sazonalidade complementar à energia hidrelétrica, porque os períodos de melhor condição de vento coincidem com os de menor capacidade dos reservatórios. O projeto desenvolvido neste trabalho nasceu de uma chamada pública do FINEP, e sob os auspícios do recém criado CEPER. Ao projeto foi incorporado um caráter investigativo, de contribuição científica original, resultando em um produto de tecnologia inovadora para aerogeradores de baixa potência. Dentre os objetivos do projeto, destacamos a avaliação experimental de turbinas eólicas de 5000 W de potência. Mais especificamente, dentro do objetivo geral deste projeto estão incluídas análise estrutural, análise aerodinâmica e análise de viabilidade de novos materiais a serem empregados. Para cada uma das diferentes áreas de conhecimento que compõem o projeto, será adotada a metodologia mais adequada. Para a Análise aerodinâmica foi realizada uma simulação numérica preliminar seguida de ensaios experimentais em túnel de vento. A descrição dos procedimentos adotados é apresentada no Capítulo 3. O Capítulo 4 é dedicado aos testes elétricos. Nesta etapa, foi desenvolvido um banco de testes para obtenção das características específicas das máquinas-base, como curvas de potência, rendimento elétrico, análise e perdas mecânicas e elétricas, e aquecimento. Este capítulo termina com a análise crítica dos valores obtidos. Foram realizados testes de campo de todo o conjunto montado. Atualmente, o aerogerador de 5kW encontra-se em operação, instrumentado e equipado com sistema de aquisição de dados para consolidação dos testes de confiabilidade. Os testes de campo estão ocorrendo na cidade de Campos, RJ, e abrangeram as seguintes dimensões de análise; testes de eficiência para determinação da curva de potência, níveis de ruído e atuação de dispositivos de segurança. Os resultados esperados pelo projeto foram atingidos, consolidando o projeto de um aerogerador de 5000W.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

为了满足对高速变化的偏振态的测量,提出一种能够对偏振态实现高速测量的技术。阐述了利用1/4波片与起偏器测量偏振光的斯托克斯参量常规的原理和方法,根据高速测量的要求推导出了新的斯托克斯参量计算公式,并依据此公式设计了基于多通道偏振态高速测量的方案,设计了具体的方法并编写了控制与算法程序。测试表明,该系统的测量速度达到了每秒700次偏振态测量,测量速度主要由电子线路的性能决定,测得的结果稳定可靠实现了光纤传输偏振态的高速测量。

Relevância:

60.00% 60.00%

Publicador:

Resumo:

倾斜沉积是一种新型的薄膜沉积技术。通过制备过程中基片的旋转和倾斜,可以制备出斜柱状、之字形、螺旋状、S形以及C形等各种形状的雕塑薄膜。雕塑薄膜可以实现许多传统薄膜无法实现的光学性质,为光学薄膜的设计与制备开辟了新的途径。本文综述了雕塑薄膜的制备方法,分析了雕塑薄膜的结构特征及影响因素,并阐述了其在光学领域的广泛应用前景。

Relevância:

60.00% 60.00%

Publicador:

Resumo:

New technologies can be riddled with unforeseen sources of error, jeopardizing the validity and application of their advancement. Bioelectrical impedance analysis (BIA) is a new technology in fisheries research that is capable of estimating proximate composition, condition, and energy content in fish quickly, cheaply, and (after calibration) without the need to sacrifice fish. Before BIA can be widely accepted in fisheries science, it is necessary to identify sources of error and determine a means to minimize potential errors with this analysis. We conducted controlled laboratory experiments to identify sources of errors within BIA measurements. We concluded that electrode needle location, procedure deviations, user experience, time after death, and temperature can affect resistance and reactance measurements. Sensitivity analyses showed that errors in predictive estimates of composition can be large (>50%) when these errors are experienced. Adherence to a strict protocol can help avoid these sources of error and provide BIA estimates that are both accurate and precise in a field or laboratory setting.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

O aumento exponencial dos gastos em saúde demanda estudos econômicos que subsidiem as decisões de agentes públicos ou privados quanto à incorporação de novas tecnologias aos sistemas de saúde. A tomografia de emissão de pósitrons (PET) é uma tecnologia de imagem da área de medicina nuclear, de alto custo e difusão ainda recente no país. O nível de evidência científica acumulada em relação a seu uso no câncer pulmonar de células não pequenas (CPCNP) é significativo, com a tecnologia mostrando acurácia superior às técnicas de imagem convencionais no estadiamento mediastinal e à distância. Avaliação econômica realizada em 2013 aponta para seu custo-efetividade no estadiamento do CPCNP em comparação à estratégia atual de manejo baseada no uso da tomografia computadorizada, na perspectiva do SUS. Sua incorporação ao rol de procedimentos disponibilizados pelo SUS pelo Ministério da Saúde (MS) ocorreu em abril de 2014, mas ainda se desconhecem os impactos econômico-financeiros decorrentes desta decisão. Este estudo buscou estimar o impacto orçamentário (IO) da incorporação da tecnologia PET no estadiamento do CPCNP para os anos de 2014 a 2018, a partir da perspectiva do SUS como financiador da assistência à saúde. As estimativas foram calculadas pelo método epidemiológico e usaram como base modelo de decisão do estudo de custo-efetividade previamente realizado. Foram utilizados dados nacionais de incidência; de distribuição de doença e acurácia das tecnologias procedentes da literatura e de custos, de estudo de microcustos e das bases de dados do SUS. Duas estratégias de uso da nova tecnologia foram analisadas: (a) oferta da PET-TC a todos os pacientes; e (b) oferta restrita àqueles que apresentem resultados de TC prévia negativos. Adicionalmente, foram realizadas análises de sensibilidade univariadas e por cenários extremos, para avaliar a influência nos resultados de possíveis fontes de incertezas nos parâmetros utilizados. A incorporação da PET-TC ao SUS implicaria a necessidade de recursos adicionais de R$ 158,1 (oferta restrita) a 202,7 milhões (oferta abrangente) em cinco anos, e a diferença entre as duas estratégias de oferta é de R$ 44,6 milhões no período. Em termos absolutos, o IO total seria de R$ 555 milhões (PET-TC para TC negativa) e R$ 600 milhões (PET-TC para todos) no período. O custo do procedimento PET-TC foi o parâmetro de maior influência sobre as estimativas de gastos relacionados à nova tecnologia, seguido da proporção de pacientes submetidos à mediastinoscopia. No cenário por extremos mais otimista, os IOs incrementais reduzir-se-iam para R$ 86,9 (PET-TC para TC negativa) e R$ 103,9 milhões (PET-TC para todos), enquanto no mais pessimista os mesmos aumentariam para R$ 194,0 e R$ 242,2 milhões, respectivamente. Resultados sobre IO, aliados às evidências de custo-efetividade da tecnologia, conferem maior racionalidade às decisões finais dos gestores. A incorporação da PET no estadiamento clínico do CPCNP parece ser financeiramente factível frente à magnitude do orçamento do MS, e potencial redução no número de cirurgias desnecessárias pode levar à maior eficiência na alocação dos recursos disponíveis e melhores desfechos para os pacientes com estratégias terapêuticas mais bem indicadas.