998 resultados para RGB-D data


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The present study aimed to identify key parameters influencing N utilization and develop prediction equations for manure N output (MN), feces N output (FN), and urine N output (UN). Data were obtained under a series of digestibility trials with nonpregnant dry cows fed fresh grass at maintenance level. Grass was cut from 8 different ryegrass swards measured from early to late maturity in 2007 and 2008 (2 primary growth, 3 first regrowth, and 3 second regrowth) and from 2 primary growth early maturity swards in 2009. Each grass was offered to a group of 4 cows and 2 groups were used in each of the 8 swards in 2007 and 2008 for daily measurements over 6 wk; the first group (first 3 wk) and the second group (last 3 wk) assessed early and late maturity grass, respectively. Average values of continuous 3-d data of N intake (NI) and output for individual cows ( = 464) and grass nutrient contents ( = 116) were used in the statistical analysis. Grass N content was positively related to GE and ME contents but negatively related to grass water-soluble carbohydrates (WSC), NDF, and ADF contents ( < 0.01), indicating that accounting for nutrient interrelations is a crucial aspect of N mitigation. Significantly greater ratios of UN:FN, UN:MN, and UN:NI were found with increased grass WSC contents and ratios of N:WSC, N:digestible OM in total DM (DOMD), and N:ME ( < 0.01). Greater NI, animal BW, and grass N contents and lower grass WSC, NDF, ADF, DOMD, and ME concentrations were significantly associated with greater MN, FN, and UN ( < 0.05). The present study highlighted that using grass lower in N and greater in fermentable energy in animals fed solely fresh grass at maintenance level can improve N utilization, reduce N outputs, and shift part of N excretion toward feces rather than urine. These outcomes are highly desirable in mitigation strategies to reduce nitrous oxide emissions from livestock. Equations predicting N output from BW and grass N content explained a similar amount of variability as using NI and grass chemical composition (excluding DOMD and ME), implying that parameters easily measurable in practice could be used for estimating N outputs. In a research environment, where grass DOMD and ME are likely to be available, their use to predict N outputs is highly recommended because they strongly improved of the equations in the current study.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

OBJETIVO: O objetivo geral foi detectar fatores ambliopigênicos em uma população de pré-escolares, utilizando exames refratométricos e o PhotoScreenerTM (PS) e o objetivo específico foi verificar se a avaliação feita com o PS é útil como método de triagem em campanhas de prevenção de ambliopia em crianças. MÉTODOS: Foi realizado um estudo observacional, prospectivo, de janeiro a dezembro de 2007, avaliando-se 227 crianças pré-escolares, com o intuito de detectar, através da aplicação de um questionário, exames refratométricos e fotografias utilizando o PS, a presença de fatores causadores de ambliopia na população de estudo. Todas as crianças foram avaliadas pelo PS. em seguida, todas as crianças foram submetidas à cicloplegia , sendo avaliadas usando refrator automático Shin Nippon®. As crianças detectadas como portadoras de problemas oculares receberam prescrição óptica, segundo os critérios: hipermetropia maior que +1,50 D, miopia maior que -1,00 D e astigmatismo maior que 1,00 D. Analisaram-se os dados através do teste de concordância de Goodman, estatística descritiva e estudo da especificidade e sensibilidade ao emprego do PS, comparando os resultados com ele obtidos, com os resultados dos outros métodos de avaliação oftalmológica. RESULTADOS: A distribuição entre os sexos foi semelhante, sendo que a maioria das crianças apresentava quatro ou cinco anos de idade. A sensibilidade (S) do PS, comparando-se o resultado obtido neste aparelho com o autorrefrator sob cicloplegia, foi de 50,9%. Já a especificidade foi de 78,9%; valor preditivo positivo 70%; valor preditivo negativo 62,5% e acurácia 65,1%. CONCLUSÕES: Das 101 crianças cujas fotografias tiradas através do PS puderam ser analisadas satisfatoriamente, trinta e seis apresentavam erro refrativo que necessitou de correção. O PS, quando comparado com equivalente esférico do autorrefrator sob cicloplegia, é um método razoável de triagem, embora a sensibilidade não seja boa. Um ponto positivo a ser ressaltado é o considerável valor de especificidade.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This manuscript details a technique for estimating gesture accuracy within the context of motion-based health video games using the MICROSOFT KINECT. We created a physical therapy game that requires players to imitate clinically significant reference gestures. Player performance is represented by the degree of similarity between the performed and reference gestures and is quantified by collecting the Euler angles of the player's gestures, converting them to a three-dimensional vector, and comparing the magnitude between the vectors. Lower difference values represent greater gestural correspondence and therefore greater player performance. A group of thirty-one subjects was tested. Subjects achieved gestural correspondence sufficient to complete the game's objectives while also improving their ability to perform reference gestures accurately.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Crowdsourcing linguistic phenomena with smartphone applications is relatively new. Apps have been used to train acoustic models for automatic speech recognition (de Vries et al. 2014) and to archive endangered languages (Iwaidja Inyaman Team 2012). Leemann and Kolly (2013) developed a free app for iOS—Dialäkt Äpp (DÄ) (>78k downloads)—to document language change in Swiss German. Here, we present results of sound change based on DÄ data. DÄ predicts the users’ dialects: for 16 variables, users select their dialectal variant. DÄ then tells users which dialect they speak. Underlying this prediction are maps from the Linguistic Atlas of German-speaking Switzerland (SDS, 1962-2003), which documents the linguistic situation around 1950. If predicted wrongly, users indicate their actual dialect. With this information, the 16 variables can be assessed for language change. Results revealed robustness of phonetic variables; lexical and morphological variables were more prone to change. Phonetic variables like to lift (variants: /lupfə, lʏpfə, lipfə/) revealed SDS agreement scores of nearly 85%, i.e., little sound change. Not all phonetic variables are equally robust: ladle (variants: /xælə, xællə, xæuə, xæɫə, xæɫɫə/) exhibited significant sound change. We will illustrate the results using maps that show details of the sound changes at hand.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This article presents a mathematical method for producing hard-chine ship hulls based on a set of numerical parameters that are directly related to the geometric features of the hull and uniquely define a hull form for this type of ship. The term planing hull is used generically to describe the majority of hard-chine boats being built today. This article is focused on unstepped, single-chine hulls. B-spline curves and surfaces were combined with constraints on the significant ship curves to produce the final hull design. The hard-chine hull geometry was modeled by decomposing the surface geometry into boundary curves, which were defined by design constraints or parameters. In planing hull design, these control curves are the center, chine, and sheer lines as well as their geometric features including position, slope, and, in the case of the chine, enclosed area and centroid. These geometric parameters have physical, hydrodynamic, and stability implications from the design point of view. The proposed method uses two-dimensional orthogonal projections of the control curves and then produces three-dimensional (3-D) definitions using B-spline fitting of the 3-D data points. The fitting considers maximum deviation from the curve to the data points and is based on an original selection of the parameterization. A net of B-spline curves (stations) is then created to match the previously defined 3-D boundaries. A final set of lofting surfaces of the previous B-spline curves produces the hull surface.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo esta orientado a resolver el problema de la caracterización de la copa de arboles frutales para la aplicacion localizada de fitosanitarios. Esta propuesta utiliza un mapa de profundidad (Depth image) y una imagen RGB combinadas (RGB-D), proporcionados por el sensor Kinect de Microsoft, para aplicar pesticidas de forma localizada. A través del mapa de profundidad se puede estimar la densidad de la copa y a partir de esta información determinar qué boquillas se deben abrir en cada momento. Se desarrollaron algoritmos implementados en Matlab que permiten además de la adquisición de las imágenes RGB-D, aplicar plaguicidas sólo a hojas y/o frutos según se desee. Estos algoritmos fueron implementados en un software que se comunica con el entorno de desarrollo "Kinect Windows SDK", encargado de extraer las imágenes desde el sensor Kinect. Por otra parte, para identificar hojas, se implementaron algoritmos de clasificación e identificación. Los algoritmos de clasificación utilizados fueron "Fuzzy C-Means con Gustafson Kessel" (FCM-GK) y "K-Means". Los centroides o prototipos de cada clase generados por FCM-GK fueron usados como semilla para K-Means, para acelerar la convergencia del algoritmo y mantener la coherencia temporal en los grupos generados por K-Means. Los algoritmos de clasificación fueron aplicados sobre las imágenes transformadas al espacio de color L*a*b*; específicamente se emplearon los canales a*, b* (canales cromáticos) con el fin de reducir el efecto de la luz sobre los colores. Los algoritmos de clasificación fueron configurados para buscar cuatro grupos: hojas, porosidad, frutas y tronco. Una vez que el clasificador genera los prototipos de los grupos, un clasificador denominado Máquina de Soporte Vectorial, que utiliza como núcleo una función Gaussiana base radial, identifica la clase de interés (hojas). La combinación de estos algoritmos ha mostrado bajos errores de clasificación, rendimiento del 4% de error en la identificación de hojas. Además, estos algoritmos de procesamiento de hasta 8.4 imágenes por segundo, lo que permite su aplicación en tiempo real. Los resultados demuestran la viabilidad de utilizar el sensor "Kinect" para determinar dónde y cuándo aplicar pesticidas. Por otra parte, también muestran que existen limitaciones en su uso, impuesta por las condiciones de luz. En otras palabras, es posible usar "Kinect" en exteriores, pero durante días nublados, temprano en la mañana o en la noche con iluminación artificial, o añadiendo un parasol en condiciones de luz intensa.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta tesis se centra en desarrollo de tecnologías para la interacción hombre-robot en entornos nucleares de fusión. La problemática principal del sector de fusión nuclear radica en las condiciones ambientales tan extremas que hay en el interior del reactor, y la necesidad de que los equipos cumplan requisitos muy restrictivos para poder aguantar esos niveles de radiación, magnetismo, ultravacío, temperatura... Como no es viable la ejecución de tareas directamente por parte de humanos, habrá que utilizar dispositivos de manipulación remota para llevar a cabo los procesos de operación y mantenimiento. En las instalaciones de ITER es obligatorio tener un entorno controlado de extrema seguridad, que necesita de estándares validados. La definición y uso de protocolos es indispensable para regir su buen funcionamiento. Si nos centramos en la telemanipulación con algo grado de escalado, surge la necesidad de definir protocolos para sistemas abiertos que permitan la interacción entre equipos y dispositivos de diversa índole. En este contexto se plantea la definición del Protocolo de Teleoperación que permita la interconexión entre dispositivos maestros y esclavos de distinta tipología, pudiéndose comunicar bilateralmente entre sí y utilizar distintos algoritmos de control según la tarea a desempeñar. Este protocolo y su interconectividad se han puesto a prueba en la Plataforma Abierta de Teleoperación (P.A.T.) que se ha desarrollado e integrado en la ETSII UPM como una herramienta que permita probar, validar y realizar experimentos de telerrobótica. Actualmente, este Protocolo de Teleoperación se ha propuesto a través de AENOR al grupo ISO de Telerobotics como una solución válida al problema existente y se encuentra bajo revisión. Con el diseño de dicho protocolo se ha conseguido enlazar maestro y esclavo, sin embargo con los niveles de radiación tan altos que hay en ITER la electrónica del controlador no puede entrar dentro del tokamak. Por ello se propone que a través de una mínima electrónica convenientemente protegida se puedan multiplexar las señales de control que van a través del cableado umbilical desde el controlador hasta la base del robot. En este ejercicio teórico se demuestra la utilidad y viabilidad de utilizar este tipo de solución para reducir el volumen y peso del cableado umbilical en cifras aproximadas de un 90%, para ello hay que desarrollar una electrónica específica y con certificación RadHard para soportar los enormes niveles de radiación de ITER. Para este manipulador de tipo genérico y con ayuda de la Plataforma Abierta de Teleoperación, se ha desarrollado un algoritmo que mediante un sensor de fuerza/par y una IMU colocados en la muñeca del robot, y convenientemente protegidos ante la radiación, permiten calcular las fuerzas e inercias que produce la carga, esto es necesario para poder transmitirle al operador unas fuerzas escaladas, y que pueda sentir la carga que manipula, y no otras fuerzas que puedan influir en el esclavo remoto, como ocurre con otras técnicas de estimación de fuerzas. Como el blindaje de los sensores no debe ser grande ni pesado, habrá que destinar este tipo de tecnología a las tareas de mantenimiento de las paradas programadas de ITER, que es cuando los niveles de radiación están en sus valores mínimos. Por otro lado para que el operador sienta lo más fielmente posible la fuerza de carga se ha desarrollado una electrónica que mediante el control en corriente de los motores permita realizar un control en fuerza a partir de la caracterización de los motores del maestro. Además para aumentar la percepción del operador se han realizado unos experimentos que demuestran que al aplicar estímulos multimodales (visuales, auditivos y hápticos) aumenta su inmersión y el rendimiento en la consecución de la tarea puesto que influyen directamente en su capacidad de respuesta. Finalmente, y en referencia a la realimentación visual del operador, en ITER se trabaja con cámaras situadas en localizaciones estratégicas, si bien el humano cuando manipula objetos hace uso de su visión binocular cambiando constantemente el punto de vista adecuándose a las necesidades visuales de cada momento durante el desarrollo de la tarea. Por ello, se ha realizado una reconstrucción tridimensional del espacio de la tarea a partir de una cámara-sensor RGB-D, lo cual nos permite obtener un punto de vista binocular virtual móvil a partir de una cámara situada en un punto fijo que se puede proyectar en un dispositivo de visualización 3D para que el operador pueda variar el punto de vista estereoscópico según sus preferencias. La correcta integración de estas tecnologías para la interacción hombre-robot en la P.A.T. ha permitido validar mediante pruebas y experimentos para verificar su utilidad en la aplicación práctica de la telemanipulación con alto grado de escalado en entornos nucleares de fusión. Abstract This thesis focuses on developing technologies for human-robot interaction in nuclear fusion environments. The main problem of nuclear fusion sector resides in such extreme environmental conditions existing in the hot-cell, leading to very restrictive requirements for equipment in order to deal with these high levels of radiation, magnetism, ultravacuum, temperature... Since it is not feasible to carry out tasks directly by humans, we must use remote handling devices for accomplishing operation and maintenance processes. In ITER facilities it is mandatory to have a controlled environment of extreme safety and security with validated standards. The definition and use of protocols is essential to govern its operation. Focusing on Remote Handling with some degree of escalation, protocols must be defined for open systems to allow interaction among different kind of equipment and several multifunctional devices. In this context, a Teleoperation Protocol definition enables interconnection between master and slave devices from different typologies, being able to communicate bilaterally one each other and using different control algorithms depending on the task to perform. This protocol and its interconnectivity have been tested in the Teleoperation Open Platform (T.O.P.) that has been developed and integrated in the ETSII UPM as a tool to test, validate and conduct experiments in Telerobotics. Currently, this protocol has been proposed for Teleoperation through AENOR to the ISO Telerobotics group as a valid solution to the existing problem, and it is under review. Master and slave connection has been achieved with this protocol design, however with such high radiation levels in ITER, the controller electronics cannot enter inside the tokamak. Therefore it is proposed a multiplexed electronic board, that through suitable and RadHard protection processes, to transmit control signals through an umbilical cable from the controller to the robot base. In this theoretical exercise the utility and feasibility of using this type of solution reduce the volume and weight of the umbilical wiring approximate 90% less, although it is necessary to develop specific electronic hardware and validate in RadHard qualifications in order to handle huge levels of ITER radiation. Using generic manipulators does not allow to implement regular sensors for force feedback in ITER conditions. In this line of research, an algorithm to calculate the forces and inertia produced by the load has been developed using a force/torque sensor and IMU, both conveniently protected against radiation and placed on the robot wrist. Scaled forces should be transmitted to the operator, feeling load forces but not other undesirable forces in slave system as those resulting from other force estimation techniques. Since shielding of the sensors should not be large and heavy, it will be necessary to allocate this type of technology for programmed maintenance periods of ITER, when radiation levels are at their lowest levels. Moreover, the operator perception needs to feel load forces as accurate as possible, so some current control electronics were developed to perform a force control of master joint motors going through a correct motor characterization. In addition to increase the perception of the operator, some experiments were conducted to demonstrate applying multimodal stimuli (visual, auditory and haptic) increases immersion and performance in achieving the task since it is directly correlated with response time. Finally, referring to the visual feedback to the operator in ITER, it is usual to work with 2D cameras in strategic locations, while humans use binocular vision in direct object manipulation, constantly changing the point of view adapting it to the visual needs for performing manipulation during task procedures. In this line a three-dimensional reconstruction of non-structured scenarios has been developed using RGB-D sensor instead of cameras in the remote environment. Thus a mobile virtual binocular point of view could be generated from a camera at a fixed point, projecting stereoscopic images in 3D display device according to operator preferences. The successful integration of these technologies for human-robot interaction in the T.O.P., and validating them through tests and experiments, verify its usefulness in practical application of high scaling remote handling at nuclear fusion environments.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem como propósito responder a questão "qual o interesse estratégico de empresas do distrito de Aveiro se internacionalizarem para os Países Africanos de Língua Oficial Portuguesa (PALOP) e/ ou Brasil - Ceará?". O objeto de estudo surgiu após a integração num estágio curricular na AIDA - Associação Industrial do Distrito de Aveiro - e levou à revisão da literatura dos temas estratégia e internacionalização, assim como ao trabalho de campo (6 entrevistas a colaboradoras da AIDA), proporcionando as componentes conceptual e empírica. Verificou-se que o setor de atividade é fundamental para o sucesso das empresas nas missões. Designadamente, bastantes empresas ligadas ao setor metalomecânico, que tendem a recorrer a estes mercados dos PALOP e/ ou Brasil - Ceará, alcançaram, em muitos casos, o sucesso - isto é, a concretização de negócios com novos clientes e / ou o investimento direto nesses países. O contributo do presente trabalho reside também na perspetiva, resultante de um inquérito desenvolido no âmbito do estágio no Gabinete de Relações Exteriores da AIDA, de que ainda que se verifique uma janela de oportunidade para algumas das empresas nos referidos mercados (PALOP e Brasil - Ceará), entende-se que, para o sucesso efetivo destas empresas, outras formas de empreender poderiam ser colocadas em prática, nomeadamente alianças estratégicas entre pequenas e médias empresas (PME) de setores semelhantes, a nível local (Portugal), para competirem a nível internacional com os respetivos líderes de mercado. Desta forma, sugere-se lutar pela competitividade não só nos PALOP mas também nos mercados desenvolvidos, tais como Alemanha, Estados Unidos da América e/ ou países escandinavos - pois somente com clientes exigentes e com a pressão de concorrentes fortes poder-se-ão criar indústrias desenvolvidas e capazes de competir ao mais elevado nível e pelos melhores clientes, com poder de compra e fontes de inovação (Porter, 1990). Estas lições parecem, por ezes, esquecidas, mas segundo Gibbs (2007) um dos propósitos da investigação é também o de lembrar o que foi esquecido e/ ou ignorado. As entrevistas realizadas ofereceram contributo na medida em que proporcionam a compreensão dos motivos para as empresas portuguesas escolherem estes mercados, das razões para o sucesso ou insucesso nos PALOP e/ ou Brasil - Ceará, do investimento e esforço por parte das entidades não-governamentais portuguesas em internacionalizar empresas do setor da metalomecânica, das forças e fraquezas das missões empresariais, de que aspetos fazem da AIDA um agente de mudança e das áreas em que poderia haver maior diligência por parte da AIDA.São também sugeridas recomendações a associação, entre outras, a inclusão das questões culturais de cada país nos estudos de mercado não só sobre PALOP e Brasil - Ceará, mas também nos estudos de mercado do distrito de Aveiro, assim como de Portugal, para fazer divulgação a potenciais importadores; melhoria de processos, implementando-se um software de gestão/ partilha de conhecimento das várias oportunidades de negócio, rentabilizando o processo de estabelecimento de interesse em realizar negócio, no âmbito do EEN (Entelprise Eumpe Netwrk); intervenção na plataforma do IAPMEI por informáticos habilitados; e armazenamento de dados em cloud storage - um serviço do género da Dropbox, de modo a rentabilizar o tempo dispendido, assim como a tornar as pastas acedidas via intranet mais pequenas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectives: Our aim was to study the effect of combination therapy with aspirin and dipyridamole (A+D) over aspirin alone (ASA) in secondary prevention after transient ischemic attack or minor stroke of presumed arterial origin and to perform subgroup analyses to identify patients that might benefit most from secondary prevention with A+D. Data sources: The previously published meta-analysis of individual patient data was updated with data from ESPRIT (N=2,739); trials without data on the comparison of A+D versus ASA were excluded. Review methods: A meta-analysis was performed using Cox regression, including several subgroup analyses and following baseline risk stratification. Results: A total of 7,612 patients (5 trials) were included in the analyses, 3,800 allocated to A+D and 3,812 to ASA alone. The trial-adjusted hazard ratio for the composite event of vascular death, non-fatal myocardial infarction and non-fatal stroke was 0.82 (95% confidence interval 0.72-0.92). Hazard ratios did not differ in subgroup analyses based on age, sex, qualifying event, hypertension, diabetes, previous stroke, ischemic heart disease, aspirin dose, type of vessel disease and dipyridamole formulation, nor across baseline risk strata as assessed with two different risk scores. A+D were also more effective than ASA alone in preventing recurrent stroke, HR 0.78 (95% CI 0.68 – 0.90). Conclusion: The combination of aspirin and dipyridamole is more effective than aspirin alone in patients with TIA or ischemic stroke of presumed arterial origin in the secondary prevention of stroke and other vascular events. This superiority was found in all subgroups and was independent of baseline risk. ---------------------------7dc3521430776 Content-Disposition: form-data; name="c14_creators_1_name_family" Halkes

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The Mid Miocene marine formations of Salles area (former "Sallomacian" stage) have been studied again from numerous outcrops and cores. The deep structural framework influences notably of the characteristics and distribution of the deposits, which are neritic. The stratigraphy is stated precisely thanks to the planktonic fauna and floradetailed examination (probably Serravallian zones NN6 - N12). Several paleobiofacies are reconstituted from the rich invertebrate faunas, which give also paleoclimatic data.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

O presente trabalho tem como tema a Troca Electrónica de Dados (Electronic Data Interchange – EDI) transferência de dados estruturados, respeitando mensagens normalizadas estabelecidas, computador a computador, por meios electrónicos. Trocas entre computadores refere-se a trocas entre aplicações informáticas: por exemplo o sistema de encomendas envia ordens ao sistema central de controlo da produção, o qual então fará o envio da respectiva factura. O EDI aberto faz a troca electrónica de dados entre parceiros autónomos que se associaram para fazerem trocas de dados estruturados que são destinados a serem processados por programas de aplicações.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The geometry and connectivity of fractures exert a strong influence on the flow and transport properties of fracture networks. We present a novel approach to stochastically generate three-dimensional discrete networks of connected fractures that are conditioned to hydrological and geophysical data. A hierarchical rejection sampling algorithm is used to draw realizations from the posterior probability density function at different conditioning levels. The method is applied to a well-studied granitic formation using data acquired within two boreholes located 6 m apart. The prior models include 27 fractures with their geometry (position and orientation) bounded by information derived from single-hole ground-penetrating radar (GPR) data acquired during saline tracer tests and optical televiewer logs. Eleven cross-hole hydraulic connections between fractures in neighboring boreholes and the order in which the tracer arrives at different fractures are used for conditioning. Furthermore, the networks are conditioned to the observed relative hydraulic importance of the different hydraulic connections by numerically simulating the flow response. Among the conditioning data considered, constraints on the relative flow contributions were the most effective in determining the variability among the network realizations. Nevertheless, we find that the posterior model space is strongly determined by the imposed prior bounds. Strong prior bounds were derived from GPR measurements and helped to make the approach computationally feasible. We analyze a set of 230 posterior realizations that reproduce all data given their uncertainties assuming the same uniform transmissivity in all fractures. The posterior models provide valuable statistics on length scales and density of connected fractures, as well as their connectivity. In an additional analysis, effective transmissivity estimates of the posterior realizations indicate a strong influence of the DFN structure, in that it induces large variations of equivalent transmissivities between realizations. The transmissivity estimates agree well with previous estimates at the site based on pumping, flowmeter and temperature data.