69 resultados para Tecnology
Resumo:
In the past decade, the advent of efficient genome sequencing tools and high-throughput experimental biotechnology has lead to enormous progress in the life science. Among the most important innovations is the microarray tecnology. It allows to quantify the expression for thousands of genes simultaneously by measurin the hybridization from a tissue of interest to probes on a small glass or plastic slide. The characteristics of these data include a fair amount of random noise, a predictor dimension in the thousand, and a sample noise in the dozens. One of the most exciting areas to which microarray technology has been applied is the challenge of deciphering complex disease such as cancer. In these studies, samples are taken from two or more groups of individuals with heterogeneous phenotypes, pathologies, or clinical outcomes. these samples are hybridized to microarrays in an effort to find a small number of genes which are strongly correlated with the group of individuals. Eventhough today methods to analyse the data are welle developed and close to reach a standard organization (through the effort of preposed International project like Microarray Gene Expression Data -MGED- Society [1]) it is not unfrequant to stumble in a clinician's question that do not have a compelling statistical method that could permit to answer it.The contribution of this dissertation in deciphering disease regards the development of new approaches aiming at handle open problems posed by clinicians in handle specific experimental designs. In Chapter 1 starting from a biological necessary introduction, we revise the microarray tecnologies and all the important steps that involve an experiment from the production of the array, to the quality controls ending with preprocessing steps that will be used into the data analysis in the rest of the dissertation. While in Chapter 2 a critical review of standard analysis methods are provided stressing most of problems that In Chapter 3 is introduced a method to adress the issue of unbalanced design of miacroarray experiments. In microarray experiments, experimental design is a crucial starting-point for obtaining reasonable results. In a two-class problem, an equal or similar number of samples it should be collected between the two classes. However in some cases, e.g. rare pathologies, the approach to be taken is less evident. We propose to address this issue by applying a modified version of SAM [2]. MultiSAM consists in a reiterated application of a SAM analysis, comparing the less populated class (LPC) with 1,000 random samplings of the same size from the more populated class (MPC) A list of the differentially expressed genes is generated for each SAM application. After 1,000 reiterations, each single probe given a "score" ranging from 0 to 1,000 based on its recurrence in the 1,000 lists as differentially expressed. The performance of MultiSAM was compared to the performance of SAM and LIMMA [3] over two simulated data sets via beta and exponential distribution. The results of all three algorithms over low- noise data sets seems acceptable However, on a real unbalanced two-channel data set reagardin Chronic Lymphocitic Leukemia, LIMMA finds no significant probe, SAM finds 23 significantly changed probes but cannot separate the two classes, while MultiSAM finds 122 probes with score >300 and separates the data into two clusters by hierarchical clustering. We also report extra-assay validation in terms of differentially expressed genes Although standard algorithms perform well over low-noise simulated data sets, multi-SAM seems to be the only one able to reveal subtle differences in gene expression profiles on real unbalanced data. In Chapter 4 a method to adress similarities evaluation in a three-class prblem by means of Relevance Vector Machine [4] is described. In fact, looking at microarray data in a prognostic and diagnostic clinical framework, not only differences could have a crucial role. In some cases similarities can give useful and, sometimes even more, important information. The goal, given three classes, could be to establish, with a certain level of confidence, if the third one is similar to the first or the second one. In this work we show that Relevance Vector Machine (RVM) [2] could be a possible solutions to the limitation of standard supervised classification. In fact, RVM offers many advantages compared, for example, with his well-known precursor (Support Vector Machine - SVM [3]). Among these advantages, the estimate of posterior probability of class membership represents a key feature to address the similarity issue. This is a highly important, but often overlooked, option of any practical pattern recognition system. We focused on Tumor-Grade-three-class problem, so we have 67 samples of grade I (G1), 54 samples of grade 3 (G3) and 100 samples of grade 2 (G2). The goal is to find a model able to separate G1 from G3, then evaluate the third class G2 as test-set to obtain the probability for samples of G2 to be member of class G1 or class G3. The analysis showed that breast cancer samples of grade II have a molecular profile more similar to breast cancer samples of grade I. Looking at the literature this result have been guessed, but no measure of significance was gived before.
Resumo:
Nel ramo della Information Tecnology, recentemente, nascono sistemi informativi adibiti alla gestione di risorse hardware e software distribuite e visualizzate in rete. Uno degli strumenti più utilizzati e commercializzati per l'utilizzo di tale tipo di tecnologie è rappresentato dal cloud computing. Secondo una ricerca del "Il Sole 24 Ore'' in Italia il 25% delle aziende italiane intende adottare il cloud nei prossimi 12 mesi. E' un mercato da 287 milioni di euro nel 2011, +41% sul 2010, e passerà a 394 milioni nel 2012 per poi risalire a 671 nel 2014. Questa tesi si basa su un lavoro di ricerca precedentemente alla stessa in cui ho esaminato esperienze aziendali o riflessioni di queste ultime sull'applicazione e l'utilizzo della tecnologia cloud come modello di business. Il lavoro si è svolto leggendo ed analizzando due quotidiani italiani (Il Corriere della Sera e il Il Sole 24 Ore), un quotidiano inglese (Financial Times) e un settimanale londinese (The Economist) nell'arco di due anni a questa parte. Attraverso l'analisi degli articoli ottenuti è stata redatta una sintesi degli stessi pervenendo ad una riflessione che ha rappresentato lo spunto di tale tesi. Spesso si discuteva di problemi legati al cloud ma solo in pochi articoli vi era presente una vera e propria case history con analisi di eventuali difficoltà o benefici riscontrati. Da questo l'inizio di tale attività che pone l'obbiettivo di capire, in parte, il perché di così tanta riluttanza verso uno strumento che sembra rappresentare la scelta tecnologicamente più appropriata e strategicamente ottimale. Il cuore della ricerca è rappresentato dalle interviste svolte ad alcune aziende in merito all'utilizzo della "nuvola'' nel loro sistema informatico. Questa tesi si suddividerà: -Descrizione storica della nascita e dello sviluppo del cloud computing -Analisi delle tecnologie attualmente esistenti e dei modelli di distribuzione -Opportunità e minacce legate all'utilizzo di tale tecnologia in un ambiente aziendale -Studio ed analisi di alcuni casi aziendali e del ruolo che svolge l'uso del cloud nel proprio modello di business -Valutazione dell'attuale situazione del cloud computing e delle prospettive future legate all'utilizzo della tecnologia in analisi
Resumo:
La diffusione nelle strutture sanitarie di un numero sempre crescente di apparecchiature biomediche e di tecnologie "avanzate" per la diagnosi e la terapia ha radicalmente modificato l'approccio alla cura della salute. Questo processo di "tecnologizzazione" rende evidente la necessità di fare ricorso a competenze specifiche e a strutture organizzative adeguate in modo da garantire un’efficiente e corretta gestione delle tecnologie, sia dal punto di vista tecnico che economico, bisogni a cui da circa 40 anni risponde l’Ingegneria Clinica e i Servizi di Ingegneria Clinica. Nei paesi industrializzati la crescita economica ha permesso di finanziare nuovi investimenti e strutture all'avanguardia dal punto di vista tecnologico, ma d'altra parte il pesante ingresso della tecnologia negli ospedali ha contribuito, insieme ad altri fattori (aumento del tenore di vita, crescente urbanizzazione, invecchiamento della popolazione, ...) a rendere incontrollabile e difficilmente gestibile la spesa sanitaria. A fronte quindi di una distribuzione sempre più vasta ed ormai irrinunciabile di tecnologie biomediche, la struttura sanitaria deve essere in grado di scegliere le appropriate tecnologie e di impiegare correttamente la strumentazione, di garantire la sicurezza dei pazienti e degli operatori, nonché la qualità del servizio erogato e di ridurre e ottimizzare i costi di acquisto e di gestione. Davanti alla necessità di garantire gli stessi servizi con meno risorse è indispensabile utilizzare l’approccio dell’Health Technology Assessment (HTA), ossia la Valutazione delle Tecnologie Sanitarie, sia nell’introduzione di innovazioni sia nella scelta di disinvestire su servizi inappropriati od obsoleti che non aggiungono valore alla tutela della salute dei cittadini. Il seguente elaborato, dopo la definizione e classificazione delle tecnologie sanitarie, un’analisi del mercato di tale settore e delle spesa sanitaria sostenuta dai vari paesi Ocse, pone l’attenzione ai Servizi di Ingegneria Clinica e il ruolo chiave che essi hanno nel garantire efficienza ed economicità grazie anche all’ausilio dei profili HTA per la programmazione degli acquisti in sanità.
Resumo:
Las investigaciones arqueológicas de Mendoza prestaron poca atención al piedemonte oriental de la precordillera en comparación con las realizadas en valles y sectores de precordillera. Sin embargo, el estudio de este sector resulta clave para entender los patrones de asentamiento-subsistencia de las sociedades cazadoras-recolectoras de la región. Por otro lado, si bien se han postulado modelos para explicar las modalidades de articulación entre tierras altas y bajas durante la prehistoria, no se han definido las variaciones en sentido diacrónico. En este trabajo se apunta a describir las características del registro arqueológico del ambiente del piedemonte oriental de la precordillera de Mendoza, y en particular, de un sitio localizado en la Quebrada de Papagayos, para, análisis de la tecnología lítica mediante, proponer hipótesis referidas a los modos de organización tecnológica y del asentamiento hace aproximadamente 3.000 años AP.
Resumo:
Actualmente los entornos de televisión manejan gran cantidad de señales procedentes de diferentes fuentes y suministradas en diferentes estándares: SD-SDI,HD-SDI, 3G, DVB-ASI, señales moduladas en banda L. En la gran mayoría de los centros de radiodifusión es necesario al menos en alguno de los pasos del transporte de señales o de su explotación, la replicación de las diferentes señales de entrada a sus diferentes destinos. En el siguiente PFC se tratará de dar a conocer, los principales sistemas que se emplean en los entornos de televisión para la distribución de las señales que se utilizan en los mismos. Los sistemas distributivos se encargan de distribuir y replicar la señal de entrada a ellos hacia diferentes destinos. La principal idea con la que se diseñan estos sistemas es que la señal de entrada no sufra ningún tipo de degradación como fruto de la replicación o división, siendo incluso aconsejable que determinados sistemas regeneren la señal de entrada a sus salidas. El proyecto se divide en tres capítulos: - Capítulo de conceptos teóricos: En el que se presentarán, los fundamentos teóricos que justifican la tecnología utilizada por los diferentes sistemas. - Capítulo de distribución de señales SDI y ASI: En el cual se presentarán los principales sistemas utilizados, para la distribución de señales SD-SDI, HDSDI, 3G y DVB-ASI. - Capítulo de distribución de señales en banda-L: Donde se mostrarán, los principales sistemas de distribución de señales moduladas en banda-L. Al finalizar la lectura del mismo, el lector debería conocer los principales sistemas que se utilizan en la distribución de señales SDI y ASI y en la distribución de señales en banda L. Comprender mediante la teoría expuesta, y los sistemas presentados, las diferentes problemáticas que afrontan los diferentes equipos y la tecnología que subyace en un segundo plano para solventar las problemáticas. Nowadays, broadcast environments, manage an extensive amount of signals from several sources, using differents standards: SD-SDI, HD-SDI, 3G, DVBASI, modulated L band signals. In most of the broadcast infraestructures, it´s usually needed, at any of the transmissions steps, to replicate the source signal to many destinations. This PFC is intended to shown the main systems used to distribute and replicate signals in broadcast environments. Distributive Systems are used to distribute and replicate the source signals to as many destinations as are needed. The main idea behind the design of those systems is to preserve the integrity of the original signal, due to replications or division classical pathologies. Even it is recomendad that those systems are able to regenerate the original signal, trying to avoid or compesate those pathologies. The PFC is divided in three chapters: - Chapter 1: Theorical concepts: In this chapter is presented the minimal theory needed to understand the complex of the tecnology, for those distributive systems. - Chapter 2: Distribution of SDI and ASI signals: It is shown the main systems used to replicate and distribution of the SDI and ASI signals. It will also treatment the state of the art of the actually new systems. - Chapter 3: Distribution of L band signals. It will be shown the main systems used for L band signals At the end of reading this PFC, the reader must known the main systems used for distribution SDI and ASI signals, also L band signals. It is important to understand the contents of the PFC, the systems, the several problems and the background tecnology that is needed to afront the replication known patologies.
Resumo:
Some neural bruise prediction models have been implemented in the laboratory, for the most traded fruit species and varieties, allowing the prediction of the acceptability or rejectability for damages, with respect to the EC Standards. Different models have been built for both quasi-static (compression) and dynamic (impact) loads covering the whole commercial ripening period of fruits. A simulation process has been developed gathering the information on laboratory bruise models and load sensor calibrations for different electronic devices (IS-100 and DEA-1, for impact and compression loads respectively). Some evaluation methodology has been designed gathering the information on the mechanical properties of fruits and the loading records of electronic devices. The evaluation system allows to determine the current stage of fruit handling process and machinery.
Resumo:
A method to reduce the bruise susceptibility of apples by controlling the moisture loss of the fruit was evaluated. Previous research indicates that reduction of the relative humidity of the storage air leads to an immediate effect on the weight loss and on skin properties and to a lower bruise susceptibility of apples. The diffusion equation is used to determine the waterpotential profile inside the fruit during storage. Characteristics of the waterpotential distribution in the fruit are related to measured bruise volumes. The results indicate how /this model can be used to control bruise susceptibility.
Resumo:
Between Art and Tecnology. Concrete and granite in landscape of International Douro
Resumo:
Desde hace más de una década se vienen realizando en España enormes esfuerzos por implantar programas bilingües español-inglés en los centros educativos y es, por tanto, de gran interés conocer qué efectos ha tenido y está teniendo actualmente la implantación de dichos programas en los alumnos. Son, así pues, objetivos de este trabajo: identificar los efectos de la educación bilingüe en España, establecer propuestas de mejora frente a los problemas o insuficiencias detectadas y, por último, ofrecer una serie de propuestas relativas a la elaboración de materiales didácticos dentro del enfoque metodológico de Aprendizaje Integrado de Contenidos y Lenguas Extranjeras (AICLE). Se presentan también un banco de recursos didácticos de apoyo a uno de los bloques en los que se organiza la asignatura de Tecnología de la Enseñanza Secundaria Obligatoria, los resultados esperados del proyecto, una propuesta de valoración de la puesta en práctica del mismo y, como conclusión, se valoran positivamente este tipo de recursos y se propone la conveniencia de desarrollar nuevos recursos didácticos que aborden otras temáticas dentro de la Tecnología. ABSTRACT From the mid-nineties onwards great efforts have been made in Spain in order to implement bilingual education programs into primary and secondary schools. Therefore, this work’s main objectives are to identify the effects of bilingual education in Spain and to make proposals for the improvement or elimination of the identified problems and weaknesses and for creating Content and Language Integrated Learning- specific learning materials. The work also includes a teacher resource bank to support one of the blocks in which the subject of Technology in Secondary Education is organized, the expected results, an assessment plan to measure the project’s success and, as a conclusion, it is highlighted the need for creating new materials that address other thematic areas within the subject of Tecnology.
Resumo:
O jornalismo é um dos principais meios de oferta de temas para a discussão e formação da opinião pública, porém depende de um sistema técnico para ser transmitido. Durante mais de cem anos as informações produzidas pela imprensa foram emitidas, armazenadas, transmitidas e recebidas pelos chamados veículos de comunicação de massa que utilizam a rede centralizada cujas características estão na escassez material, produção em série e massificação. Esse sistema separa no tempo e no espaço emissores e receptores criando uma relação desigual de força em que as grandes empresas controlaram o fluxo informativo, definindo quais fatos seriam veiculados como notícia. Em 1995, a internet cuja informação circula sob a tecnologia da rede distribuída, foi apropriada pela sociedade, alterando a forma de produção, armazenamento e transmissão de informação. A tecnologia despertou a esperança de que esta ferramenta poderia proporcionar uma comunicação mais dialógica e democrática. Mas aos poucos pode-se perceber novas empresas se apropriando da tecnologia da rede distribuída sob a qual circula a internet, gerando um novo controle do fluxo informativo. Realizou-se nessa pesquisa um levantamento bibliográfico para estabelecer uma reflexão crítica dos diferentes intermediários entre fato e a notícia tanto da rede centralizada como na rede distribuída, objetivando despertar uma discussão que possa oferecer novas ideias para políticas, bem como alternativas para uma comunicação mais democrática e mais libertária.
Resumo:
Os Cursos Superiores de Tecnologia são um tipo específico de graduação (tecnólogo), com características próprias, entre as quais, a focalização na especialização dos seus currículos e duração mais curta objetivando uma formação mais rápida. A graduação tecnológica vem sendo amplamente difundida no país desde a segunda metade da década de 1990, após a promulgação da lei no 9.394/96 LDB, e por uma série de decretos, portarias e pareceres do MEC/CNE. Entre as principais metas e objetivos do PNE para a educação superior, se destacam: diversificação do sistema superior de ensino para atender clientelas com demandas específicas de formação; articulação entre currículo e mercado de trabalho; financiamento e gestão; criação de políticas de acesso à educação superior que facilitem o ingresso de alunos provenientes de grupos de maior vulnerabilidade educacional; crescimento da oferta de educação superior para a faixa etária de 18 a 24 anos. O presente estudo tem por objetivo refletir e debater a contribuição dos CSTs na educação profissional do trabalhador brasileiro dentro das perspectivas do PNE. O estudo se fundamenta no método qualitativo, com base numa pesquisa exploratória e descritiva, caracterizada como estudo de caso único, através da pesquisa de campo realizada com alunos em formação e com egressos do Curso de Eletrônica Industrial da Faculdade de Tecnologia Senai Anchieta, na cidade de São Paulo. Para alcançar seus objetivos, o estudo foi dividido em duas etapas: a primeira faz uma análise das variáveis que caracterizam o perfil do aluno em formação buscando identificar sua percepção quanto à escolha pelo CST, conhecimento sobre essa modalidade de ensino e as expectativas futuras da profissão. Na segunda parte, o estudo faz uma análise da percepção do egresso acerca das habilidades e competências adquiridas durante a formação, o grau de satisfação com salário e plano de carreira, e a aceitação profissional do tecnólogo pelo mercado de trabalho. No estudo realizado com alunos em formação constatou-se que os índices de evasão escolar das primeiras turmas do curso foram elevados, sendo apontadas como principais causas as dificuldades de conciliação entre o horário de estudo com a do trabalho e as dificuldades econômicas familiares. O perfil do aluno em formação na IES em estudo é majoritariamente da faixa etária entre 18 e 24 anos; do gênero masculino; egresso do ensino médio feito em escola pública; morador em bairro periférico e natural de cidade da RMSP; o próprio aluno é responsável pelo pagamento das mensalidades; não houve interferência de terceiros na sua escolha pelo CST; tem percepção favorável quanto à empregabilidade futura como tecnólogo. A pesquisa com egressos apontou que os mesmos tem percepção favorável quanto à formação profissional recebida, exceto o fato de não terem atendido disciplinas que desenvolvessem competências gerenciais e de negócios; quanto à empregabilidade e perspectivas de carreira mostraram preocupação na valorização profissional do tecnólogo pelo mercado de trabalho; declararam estar insatisfeitos quanto ao salário recebido; quanto à educação continuada reconheceram ser esse o processo que os manterão atualizados profissionalmente. Como conclusão da pesquisa, há recomendação para estudos futuros na sondagem de outras possíveis causas da evasão escolar com alunos dos cursos com outros eixos temáticos e de IES públicas. Igualmente, aponta-se para a necessidade da proposta curricular da IES em estudo oferecer, além das disciplinas técnicas, outras que desenvolvam competências e habilidade em gestão de pessoas e negócios.
Resumo:
Ao final do ano de 2004 o Brasil atingiu o número de mais de 50 milhões de aparelhos celulares, ultrapassando inclusive o número de telefones fixos. No mesmo período, as operadoras de telefonia móvel lançaram o sinal de televisão para serem recebidos nestes aparelhos, que são pessoais e portáteis. O objetivo deste trabalho é verificar se em virtude deste crescimento na base de usuários e da alta tecnologia o aparelho de telefone celular tem potencial como mídia publicitária, sendo capaz de segmentar suas mensagens de acordo com o perfil dos clientes.
Resumo:
A monitorização de sinais vitais é uma ferramenta essencial da medicina, principalmente no que se relaciona com a avaliação do estado físico de qualquer indivíduo. As ferramentas foram evoluindo ao longo do tempo, tendo a tecnologia desempenhado um papel central na melhoria do seu desempenho. Apesar destes dispositivos estarem intimamente ligados ao contexto médico, as mudanças no estilo de vida no consumo dos utilizadores fizeram com que estas ferramentas passassem a fazer parte do quotidiano. O paradigma alterou-se, ou seja, quando eram utilizadas exclusivamente para fins médicos, agora são também usados para actividades relacionadas com o lazer e desporto. A preocupação com a monitorização de sinais vitais cresceu nos últimos anos, pois a interpretação correcta destes dados permite intervir em certos aspectos da rotina diária, melhorando a qualidade de vida. A portabilidade tornou-se um factor importante uma vez que grande parte dos utilizadores, associa estes dispositivos à sua actividade física. Desta necessidade surgem novos tipos de produtos, que inclusivamente são associados e integrados em peças de vestuário. Este factor obriga a tecnologia a miniaturizar os componentes, no sentido de tornar possivel o funcionamento destes produtos em qualquer lugar e hora. Por outro lado, quanto menos intrusivo for o dispositivo melhor conforto e funcionalidade oferece ao utilizador. Assim sendo, a disciplina do design deve ter em conta as premissas de funcionamento dos diferentes componentes que permitem recolher dados sobre os sinais vitais: batimento cardíaco e temperatura. A intervenção da disciplina do design nesta investigação passa pelo re-design de um dispositivo existente, que é analisado no seu desempenho funcional, ergonómico e estético. O dispositivo em questão é portátil e colocado na zona inferior da perna, acima do tornozelo. Todas as envolvências ergonómicas e funcionais são tomadas em conta para a concepção de hipóteses que incrementem a performance do dispositivo. A integração de componentes e a avaliação funcional são mais eficazes quando se utilizam técnicas de prototipagem, que permitem uma visão efectiva da realidade. Para melhor conceber as propostas, e aprofundar o conhecimento sobre estas técnicas realizaram-se testes com o objectivo de aferir a precisão e a qualidade do acabamento das superfícies das peças prototipadas. No sentido de criar uma proposta final, são criadas várias hipóteses de solução que são avaliadas segundo a detecção de problemas, bem como através do contacto com os utilizadores. Ao longo da investigação as propostas evoluem, culminando naquela que é apresentada como uma proposta optimizada, que aglutina todo o levantamento literário, testes, e análises feitas durante a construção do documento.