1000 resultados para Sistemes de recopilació automàtica de dades -- Programació
Resumo:
O crescente poder computacional dos dispositivos móveis e a maior eficiência dos navegadores fomentam a construção de aplicações Web mais rápidas e fluídas, através da troca assíncrona de dados em vez de páginas HTML completas. A OutSystems Platform é um ambiente de desenvolvimento usado para a construção rápida e validada de aplicaçõesWeb, que integra numa só linguagem a construção de interfaces de utilizador, lógica da aplicação e modelo de dados. O modelo normal de interação cliente-servidor da plataforma é coerente com o ciclo completo de pedido-resposta, embora seja possível implementar, de forma explícita, aplicações assíncronas. Neste trabalho apresentamos um modelo de separação, baseado em análise estática sobre a definição de uma aplicação, entre os dados apresentados nas páginas geradas pela plataforma e o código correspondente à sua estrutura e apresentação. Esta abordagem permite a geração automática e transparente de interfaces de utilizador mais rápidas e fluídas, a partir do modelo de uma aplicação OutSystems. O modelo apresentado, em conjunto com a análise estática, permite identificar o subconjunto mínimo dos dados a serem transmitidos na rede para a execução de uma funcionalidade no servidor, e isolar a execução de código no cliente. Como resultado da utilização desta abordagem obtém-se uma diminuição muito significativa na transmissão de dados, e possivelmente uma redução na carga de processamento no servidor, dado que a geração das páginasWeb é delegada no cliente, e este se torna apto para executar código. Este modelo é definido sobre uma linguagem, inspirada na da plataforma OutSystems, a partir da qual é implementado um gerador de código. Neste contexto, uma linguagem de domínio específico cria uma camada de abstração entre a definição do modelo de uma aplicação e o respetivo código gerado, tornando transparente a criação de templates clientside e o código executado no cliente e no servidor.
Resumo:
Na cadeia de produção de cartografia digital, que se encontra implementada no IGeoE, existe a necessidade de efetuar a restituição de objetos através da vetorização 3D. Sendo este processo completamente manual, o operador identifica e adquire os objetos, em ambiente estereoscópico, segundo as regras estabelecidas nas normas de aquisição. A aquisição de construções, nomeadamente os edifícios, são dos objetos que mais recursos consomem devido à sua frequência e dificuldade de restituição. A possibilidade de simplificar esta parte do processo proporciona um beneficio substancial para toda a cadeia de produção. Pretende-se assim detetar edifícios em fotografias aéreas, extraindo a sua informação planimétrica e altimétrica, para posterior inserção num SIG. Para a obtenção da altimetria são utilizados os princípios de fotogrametria analítica através das equações de colinearidade. Este problema torna-se relevante devido ao facto de se pretender retirar informação de fotografias, que possuem bastante informação, com recurso à computação gráfica, através de técnicas de segmentação em vários níveis e fotogrametria, juntando assim duas áreas do saber. Esta solução permite automatizar um processo que é predominantemente manual, contribuindo para melhorar a cadeia de produção sem a alteração de funcionamento da mesma.
Resumo:
Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.
Resumo:
A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.
Resumo:
Dissertação de mestrado em Engenharia Mecânica
Resumo:
El presente proyecto denominado “EICAR, Electrónica, Informática, Comunicaciones, Automática y Robótica para la Producción de Bienes y Servicios” asocia estratégicamente a un importante grupo de instituciones del sector científico-tecnológico, privado y gobierno con el objetivo de formar recursos humanos altamente capacitados, desarrollar conocimiento y tecnología de punta, en el campo convergente de la electrónica, informática y computación industrial, comunicaciones y automática, y su transferencia para el desarrollo activo de sectores estratégicos del país, a través de la ejecución de seis Programas: 1) Desarrollo de sistemas inteligentes para eficientizar el uso racional de la energía; 2) I+D para el desarrollo de sistemas complejos de aeronáutica y aeroespacio; 3) Desarrollos para la plataforma de TV Digital y su integración a Internet; 4) Trazabilidad de productos agropecuarios y agroindustriales; 5) Elaboración de un plan estratégico para el desarrollo de infraestructura en TICs del Corredor Bioceánico del Centro basado en sistemas GPS y Proyecto Galileo; 6) Monitoreo de las tendencias tecnológicas de los Programas propuestos.
Resumo:
L’objectiu d’aquest estudi, que correspon a un projecte de recerca sobre la pèrdua funcional i la mortalitat de persones grans fràgils, és construir un procés de supervivència predictiu que tingui en compte l’evolució funcional i nutricional dels pacients al llarg del temps. En aquest estudi ens enfrontem a l’anàlisi de dades de supervivència i mesures repetides però els mètodes estadístics habituals per al tractament conjunt d’aquest tipus de dades no són apropiats en aquest cas. Com a alternativa utilitzem els models de supervivència multi-estats per avaluar l’associació entre mortalitat i recuperació, o no, dels nivells funcionals i nutricionals considerats normals. Després d’estimar el model i d’identificar els factors pronòstics de mortalitat és possible obtenir un procés predictiu que permet fer prediccions de la supervivència dels pacients en funció de la seva història concreta fins a un determinat moment. Això permet realitzar un pronòstic més precís de cada grup de pacients, la qual cosa pot ser molt útil per als professionals sanitaris a l’hora de prendre decisions clíniques.
Resumo:
En l’anàlisi de la supervivència el problema de les dades censurades en un interval es tracta, usualment,via l’estimació per màxima versemblança. Amb l’objectiu d’utilitzar una expressió simplificada de la funció de versemblança, els mètodes estàndards suposen que les condicions que produeixen la censura no afecten el temps de fallada. En aquest article formalitzem les condicions que asseguren la validesa d’aquesta versemblança simplificada. Així, precisem diferents condicions de censura no informativa i definim una condició de suma constant anàloga a la derivada en el context de censura per la dreta. També demostrem que les inferències obtingudes amb la versemblançaa simplificada són correctes quan aquestes condicions són certes. Finalment, tractem la identificabilitat de la funció distribució del temps de fallada a partir de la informació observada i estudiem la possibilitat de contrastar el compliment de la condició de suma constant.
Resumo:
L'Anàlisi de la supervivència s'utilitza en diferents camps per analitzar el temps transcorregut entre dos esdeveniments. El que distingeix l'anàlisi de la supervivència d'altres àrees de l'estadística és que les dades normalment estan censurades. La censura en un interval apareix quan l'esdeveniment final d'interès no és directament observable i només se sap que el temps de fallada està en un interval concret. Un esquema de censura més complex encara apareix quan tant el temps inicial com el temps final estan censurats en un interval. Aquesta situació s'anomena doble censura. En aquest article donem una descripció formal d'un mètode bayesà paramètric per a l'anàlisi de dades censurades en un interval i dades doblement censurades així com unes indicacions clares de la seva utilització o pràctica. La metodologia proposada s'ilustra amb dades d'una cohort de pacients hemofílics que es varen infectar amb el virus VIH a principis dels anys 1980's.
Resumo:
Treball de recerca realitzat per un alumne d’ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l’any 2005. La criptografia és l’art d’escriure un llenguatge convingut, amb l’ús d’unes claus i de la seva operació inversa se’n diu criptoanalitzar. Els sistemes criptogràfics han estat emprats al llarg de la història. Actualment existeixen multituds de software i de hardware destinats a analitzar el tràfic de dades en xarxes de computadores. Encara que aquestes eines constitueixen un avenç en tècniques de seguretat i protecció, el seu ús indegut es al mateix temps un greu problema i una enorme font d’atacs a la intimitat dels seus usuaris i a la integritat dels seus propis sistemes. Des d’aquest punt de vista, s’explica com s’ha dissenyat dos aplicacions informàtiques per encriptar i desencriptar.
Resumo:
In this work we present a proposal for a course in translation from German into Spanish following the task based approach as known in second language acquisition. The aim is to improve the translation competence of translation students. We depart from the hypothesis that some students select inapropiate translation strategies when faced with certain translation problems leading them to translation errors. In order to avoid these translation errors originated by wrong application of such strategies we propose a didactic method which helps to prevent them by a) raising awareness of the different subcompetences required while translating, b) improving the ability to identify translation problems and relate them to the different subcompetences and c) enhancing the use of the most adequate strategy according to the characteristics of each problem. With regard to translation and how translation competence is acquired our work follows the communicative approach to translation theory as defended among others by Hatim & Mason (1990), Lörscher (1992) and Kiraly (1995), where translation is seen as a communicative activity which can be analized from a psycholinguistic perspective. In this sense we give operative definitions for what we understand by “translation problem”, “translation strategy”, “translation error”, “translation competence” and “translation”. Our approach to didactics adapts recent developments in Second Language Teaching within the communicative paradigm as is the task based approach by Nunan (1989) acquisition to translation. Fitting the recquirements of this pedagogic approach we present a planning for a translation course which is compatible with present translation studies.
Resumo:
Estudi realitzat a partir d’una estada a Bell Labs (Lucent Technologies), New Jersey (Estats Units), entre el 15 de setembre de 2005 i el 15 de gener de 2006. Els sistemes de transmissió per fibra òptica fonamenten les principals xarxes de comunicacions. A mesura que la demanda d’ample de banda per usuari creixi, seran necessaris nous sistemes que siguin capaços de cobrir les necessitats a curt i llarg termini. La tecnologia dels sistemes òptics limita fortament la complexitat dels sistemes de transmissió / recepció en comparació, per exemple, als sistemes d’ones de ràdio. La tendència és la de dissenyar sistemes avançats amb detecció directa i mirar d’aplicar tècniques bàsiques de processat del senyal. Una d’aquestes tècniques és l’equalització electrònica, és a dir, fer ús de les tècniques de processament del senyal per tal de compensar la distorsió introduïda pel canal, deguda per una o diverses degradacions típiques: dispersió cromàtica, efectes no lineals, dispersió del mode de polarització (PMD) ... Dins d’un entorn comercial d’empresa, s’ha avaluat el funcionament dels sistemes d’equalització FFE-DFE aixi com MLSE en presència de dispersió cromàtica i/o dispersió del mode de polarització (PMD) en transmissions NRZ/RZ.
Resumo:
Treball de recerca realitzat per un alumne d’ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l’any 2006. Mitjançant un programa informàtic, creat per un estudiant de batxillerat, els alumnes compartiran, a través d’internet,resums o fitxers amb informació rellevant sobre les matèries que estan estudiant sense la necessitat de coincidir en línia. El programa servidor permet donar d'alta i de baixa usuaris, control e les connexions i dels fitxers. A més a més s'encarrega d'emmagatzemar i codificar la informació (fitxers) que aporten els usuaris. El client permet l'identificació mitjançant un nom d'usuari i una contrasenya i la visualització de la informació que conté el servidor, com també permet l'aportació i modificació d'aquesta.
Resumo:
Estudi elaborat a partir d’una estada a la Universitat Nacional de Yokohama des de maig fins a mitjans de juny del 2006. S'ha estudiat el comportament fàssic i la preparació de sílica mesoporosa pels nous tensioactius fluorats d'estructura C8F17SO2(C3H7)N(C2H4O)nH (abreujat C8F17(EO)n. El tensioactiu C8F17(EO)n forma micel•les allargades i cristalls líquids en aigua, i per tant pot ser adequat per a la preparació de materials mesoporosos. Sílica mesoestructurada es va preparar pel mètode de precipitació per autoagregació cooperativa. Un estudi sistemàtic es va realitzar, investigant la influència de les concentracions de tensioactiu i precursor (TEOS), l’efecte del pH i de la longitud de cadena de poliòxid d’etilè. Els materials es van caracteritzar per raigs X a angle petit (SAXS), sorció de nitrògen i TEM. Els materials obtinguts presenten diàmetres de por petits i parets de por gruixudes. A més, aquests materials posseeixen altes superfícies específiques, que s’han obtingut emprant concentracions de tensioactiu petites, produint parets de por robustes sense microporositat significativa. La superfície específica es manté durant el procés de calcinació, malgrat un petit encongiment degut a l’entrecreuament de la sílica. Els materials de sílica obtinguts han mostrat ser significativament més robustos que altres materials similars descrits a la bibliografia, com la sílica MCM-41.
Resumo:
Amb aquest projecte es presenta un model de comunicacions basat en ARM AMBA AHB, escrit en SystemC i dissenyat per a utilitzar-se en qualsevol sistema que necessiti una solució per a les seves comunicacions. Amb aquest objectiu s'escriu de manera que es llancin els seus processos com a processos "threads" i així puguin ser programats des del codi utilitari per mitjà de variables compartides. Per assegurar el correcte funcionament, inicialment es prova en un bus AMBA AHB complet per, un cop comprovat el compliment de l'estàndard, provar-ho en un codi que realitzi el càlcul de la transposició de matrius.