989 resultados para 3D CAD software for clothing
Resumo:
El crecimiento exponencial del tráfico de datos es uno de los mayores desafíos que enfrentan actualmente los sistemas de comunicaciones, debiendo los mismos ser capaces de soportar velocidades de procesamiento de datos cada vez mas altas. En particular, el consumo de potencia se ha transformado en uno de los parámetros de diseño más críticos, generando la necesidad de investigar el uso de nuevas arquitecturas y algoritmos para el procesamiento digital de la información. Por otro lado, el análisis y evaluación de nuevas técnicas de procesamiento presenta dificultades dadas las altas velocidades a las que deben operar, resultando frecuentemente ineficiente el uso de la simulación basada en software como método. En este contexto, el uso de electrónica programable ofrece una oportunidad a bajo costo donde no solo se evaluan nuevas técnicas de diseño de alta velocidad sino también se valida su implementación en desarrollos tecnológicos. El presente proyecto tiene como objetivo principal el estudio y desarrollo de nuevas arquitecturas y algoritmos en electrónica programable para el procesamiento de datos a alta velocidad. El método a utilizar será la programación en dispositivos FPGA (Field-Programmable Gate Array) que ofrecen una buena relación costo-beneficio y gran flexibilidad para integrarse con otros dispositivos de comunicaciones. Para la etapas de diseño, simulación y programación se utilizaran herramientas CAD (Computer-Aided Design) orientadas a sistemas electrónicos digitales. El proyecto beneficiara a estudiantes de grado y postgrado de carreras afines a la informática y las telecomunicaciones, contribuyendo al desarrollo de proyectos finales y tesis doctorales. Los resultados del proyecto serán publicados en conferencias y/o revistas nacionales e internacionales y divulgados a través de charlas de difusión y/o encuentros. El proyecto se enmarca dentro de un área de gran importancia para la Provincia de Córdoba, como lo es la informática y las telecomunicaciones, y promete generar conocimiento de gran valor agregado que pueda ser transferido a empresas tecnológicas de la Provincia de Córdoba a través de consultorias o desarrollos de productos.
Resumo:
El objetivo general de este proyecto estratégico es incorporar una actividad de alto valor agregado como es el diseño de circuitos integrados dentro del segmento de alta tecnología de la cadena productiva nacional. Para ello resulta necesario cumplimentar los siguientes objetivos específicos: • Fortalecer los grupos de investigación y desarrollo que realizan tareas dentro de este área temática, tanto en infraestructura como en recursos humanos; • Fortalecer y desarrollar la Industria Electrónica mediante la incorporación de estas nuevas tecnologías en sus productos; • Representar y asistir a los grupos de diseño locales en la búsqueda de oportunidades para realizar "outsourcing" de diseño para compañías del exterior; • Establecer una primer masa crítica de diseñadores, que funcione como impulsora de la actividad en el medio; • Generar una red a nivel local, donde convivan empresas, universidades y profesionales. La mejora continua en las prestaciones de los productos y en los procesos productivos ha llevado a que la microelectrónica esté presente en los más diversos ámbitos de la actividad humana, con la perspectiva de ir incrementando constantemente su participación. Por eso mismo, un país que pretenda insertarse en el mundo de manera soberana no puede menospreciar la necesidad de incrementar la capacidad de su industria en el área. Los componentes de la Cadena de valor de la ME son los siguientes: • Diseño del circuito, con valor agregado de conocimientos y experiencia del diseñador; • Herramientas de Software de diseño (CAD) con verificación y simulación; • Prototipeo de circuitos y ensayo (testing); • Fabricación de chip en línea; • Encapsulado y testeo.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
FUNDAMENTO: O ecocardiograma tridimensional em tempo real (ECO 3D) e a tomografia computadorizada ultra-rápida (CT) são dois novos métodos de análise da fração de ejeção e dos volumes do VE. OBJETIVO: Comparar as medidas da FEVE e dos volumes do VE aferidos pelo ECO 3D e pela CT ultra-rápida. MÉTODOS: Foram estudados pelo ECO 3D e pela CT ultra-rápida de 64 cortes, 39 pacientes consecutivos (27 homens, média etária de 57±12 anos). Foram analisados: FEVE e volumes do VE. Análise estatística: coeficiente de correlação (r: Pearson), teste de Bland & Altman, teste de regressão linear, 95 % IC, p<0,05. RESULTADOS: Medidas do ECO 3D: a FEVE variou de 56,1 a 78,6 (65,5±5,58)%; volume diastólico final variou de 49,6 a 178,2 (87±27,8)ml; volume sistólico final variou de 11,4 a 78 (33,1±13,6)ml. Medidas da CT: a FEVE variou de 53 a 86 (67,8±7,78)%; volume diastólico final variou de 51 a 186 (106,5±30,3) ml; volume sistólico final variou de 7 a 72 (35,5±13,4)ml. As correlações entre ECO 3D e CT foram: FEVE (r: 0,7888, p<0,0001, 95% IC 0,6301 a 0,8843); volume diastólico final (r: 0,7695, p<0,0001, 95% IC 0,5995 a 0,8730); volume sistólico final (r: 0,8119, p<0,0001, 95% IC 0,6673 a 0,8975). CONCLUSÃO: Nesta série, foi observada boa correlação entre as medidas da FEVE e entre os volumes ventriculares aferidos pelo ECO3D e pela CT ultra-rápida de 64 cortes.
Resumo:
Transmission of Cherenkov light through the atmosphere is strongly influenced by the optical clarity of the atmosphere and the prevailing weather conditions. The performance of telescopes measuring this light is therefore dependent on atmospheric effects. This thesis presents software and hardware developed to implement a prototype sky monitoring system for use on the proposed next-generation gamma-ray telescope array, VERITAS. The system, consisting of a CCD camera and a far-infrared pyrometer, was successfully installed and tested on the ten metre atmospheric Cherenkov imaging telescope operated by the VERITAS Collaboration at the F.L. Whipple Observatory in Arizona. The thesis also presents the results of observations of the BL Lacertae object, 1ES1959+650, made with the Whipple ten metre telescope. The observations provide evidence for TeV gamma-ray emission from the BL Lacertae object, 1ES1959+650, at a level of more than 15 standard deviations above background. This represents the first unequivocal detection of this object at TeV energies, making it only the third extragalactic source seen at such levels of significance in this energy range. The flux variability of the source on a number of timescales is also investigated.
Resumo:
The research described in this thesis was developed as part of the Information Management for Green Design (IMAGREE) Project. The IMAGREE Project was funded by Enterprise Ireland under Strategic Research Grant Scheme as a partnership project between Galway-Mayo Institute of Technology and CIMRU University of Galway. The project aimed to develop a CAD integrated software tool to support environmental information management for design.
Resumo:
A terapia de ressincronização cardíaca consiste em tratamento promissor para pacientes com insuficiência cardíaca grave, porém cerca de 30% dos pacientes não apresentam melhora clínica com este tratamento. Por outro lado, aproximadamente 10% dos pacientes submetidos a essa terapia podem apresentar hiper resposta, e a ecocardiografia tridimensional pode oferecer uma opção interessante para a seleção e avaliação de tratamento desses pacientes.
Resumo:
FUNDAMENTO: A ecocardiografia consiste em método muito útil para seleção e avaliação de resposta à terapia de ressincronização cardíaca (TRC). O eco 3D já tem seu papel estabelecido na avaliação dos volumes ventriculares e fração de ejeção ventricular esquerda (FEVE) com excelente correlação de resultados quando comparado à RNM. OBJETIVO: Comparar a avaliação dos volumes ventriculares (VDVE, VSVE), FEVE e massa do VE antes e após a TRC pela ecocardiografia bi (Eco 2D) e tridimensional (Eco 3D). MÉTODOS: Foram avaliados 24 pacientes com IC CFIII ou IV (NYHA), ritmo sinusal QRS > 150 ms, em vigência de terapêutica otimizada para IC submetidos a TRC. Foram realizados eletrocardiograma (ECG), avaliação clínica, Eco 2D e 3D antes, três e seis meses após a TRC. A comparação entre as técnicas foi realizada utilizando-se a correlação de Pearson (r). RESULTADOS: No momento basal, a correlação entre os métodos foi de 0,96 para avaliação do VDVE, 0,95 para avaliação do VSVE, 0,87 para FEVE, e 0,72 para massa do VE. Após três meses da TRC, a correlação entre os métodos para análise do VDVE foi de 0,96, 0,95 para VSVE, 0,95 para FEVE, e 0,77 para massa do VE. Após seis meses da TRC, a correlação entre o Eco 2D e 3D para análise do VDVE foi de 0,98, 0,91 para VSVE, 0,96 para FEVE, e 0,85 para massa do VE. CONCLUSÃO: Neste estudo foi observada redução dos VDVE,VSVE, além de melhora da FEVE após a TRC. Houve excelente correlação entre o Eco 2D e o 3D para avaliação dos volumes ventriculares e FEVE, e boa correlação entre os métodos para avaliação da massa ventricular esquerda antes e após a TRC.
Resumo:
FUNDAMENTO: A estandardização do padrão de imagens utilizada dentro da medicina foi realizada em 1993 por meio do padrão DICOM (Digital Imaging and Communications in Medicine). Diversos exames utilizam esse padrão e cada vez mais são necessários softwares capazes de manipular esse tipo de imagem, porém esses softwares geralmente não têm o formato livre e de código aberto, e isso dificulta o seu ajuste para os mais diferentes interesses. OBJETIVO: Desenvolver e validar um software livre e de código aberto capaz de manipular imagens DICOM de exames de angiotomografia de coronárias. MÉTODOS: Desenvolvemos e testamos o software intitulado ImageLab na avaliação de 100 exames selecionados de forma randômica por meio de um banco de dados. Foram realizadas 600 análises divididas por dois observadores utilizando o ImageLab e um outro software comercializado junto a aparelhos de tomografia computadorizada Philips Brilliance, na avaliação da presença de lesões e placas coronarianas nos territórios do Tronco da Coronária Esquerda (TCE) e na Artéria Descendente Anterior (ADA). Para avaliar as concordâncias intraobservador, interobservadores e intersoftware, utilizamos concordância simples e estatística Kappa. RESULTADOS: As concordâncias observadas entre os softwares foram em geral classificadas como substancial ou quase perfeitas na maioria das comparações. CONCLUSÃO: O software ImageLab concordou com o software Philips na avaliação de exames de angiotomografia de coronárias especialmente em pacientes sem lesões, com lesões inferiores a 50% no TCE e inferiores a 70% na ADA. A concordância para lesão >70% na ADA foi menor, porém isso também é observado quando se utiliza o padrão de referência anatômico.
Resumo:
FUNDAMENTO: Remodelamento ventricular esquerdo (RVE) após IAM caracteriza fator de mau prognóstico. Há pouca informação na literatura sobre o RVE analisado com ecocardiografia tridimensional (ECO 3D) OBJETIVO: Analisar com ECO 3D as modificações geométricas e volumétricas do ventrículo esquerdo (VE) seis meses após IAM em pacientes submetidos a tratamento primário percutâneo. MÉTODOS: Estudo prospectivo com ECO 3D de 21 indivíduos (16 homens, 56 ± 12 anos), acometidos por IAM com elevação do segmento ST. Foi feita a análise morfofuncional (VE) com ECO 3D (volumes, FEVE, índice de esfericidade 3D) até sete dias e seis meses após o IAM. RVE foi considerado para aumento > 15% do volume diastólico final do VE (VDFVE) após seis meses do IAM, comparado ao VDFVE até sete dias do evento. RESULTADOS: Oito (38%) pacientes apresentaram RVE. Medidas ecocardiográficas (n = 21 pacientes): I- até sete dias do IAM: 1- VDFVE: 92,3 ± 22,3 mL; 2- FEVE: 0,51 ± 0,01; 3- índice de esfericidade: 0,38 ± 0,05; II- após seis meses: 1- VDFVE: 107,3 ± 26,8 mL; 2- FEVE: 0,59 ± 0,01; 3- índice de esfericidade: 0,31 ± 0,05. Coeficiente de correlação (r) entre índice de esfericidade até sete dias do IAM e VDFVE aos seis meses (n = 8) após o IAM: r: 0,74, p = 0,0007; (r) entre índice de esfericidade após seis meses do IAM e VDFVE aos seis meses do IAM: r: 0,85, p < 0,0001. CONCLUSÃO: Nesta série, foi observado RVE em 38% dos pacientes seis meses após IAM. O índice de esfericidade tridimensional foi associado à ocorrência de RVE.