945 resultados para Fractions. Activities. Operations With Fractions


Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este artículo abordaremos cómo se relacionan las experiencias formativas vinculadas al trabajo rural, las identificaciones y los conflictos ambientales en San Ignacio, Misiones (Argentina). Nos interesa problematizar cómo los aprendizajes ligados a las tareas rurales se vinculan con las auto-adscripciones de los sujetos, teniendo como referencia las categorías de actores sociales agrarios regionales y las denominaciones que provienen de agendas estatales de intervención. Estos procesos acontecen en un contexto de creciente concentración de propiedades que se destinan a la explotación forestal, donde observamos, en algunos casos, cierta ambientalización de los históricos conflictos territoriales. Utilizando materiales provenientes de un trabajo de campo etnográfico que iniciamos en 2008, presentaremos a dos familias de pobladores rurales. En ambos casos es posible ver cómo el acceso a la tierra es decisivo para las experiencias formativas en las actividades de reproducción social, y que se liga con identificaciones como "gente de la colonia" y una incipiente referencia a la "agricultura familiar" a partir de las intervenciones del Estado. Estas dos familias permiten mostrar cómo las experiencias e identificaciones se expresan en el contexto de la participación de los sujetos en conflictos sociales, que asumen en un caso la forma histórica de reclamos fundiarios mientras que, en el otro, es posible ver que el ambiente tiene protagonismo incipiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el propósito de contribuir al conocimiento de las lógicas y tendencias de la expansión residencial en áreas periurbanas y su impronta en la organización futura de las ciudades medias, tendiente al logro de una relación armónica entre la actividad residencial y las otras actividades socioeconómicas que se presentan en dichas áreas, en la presente Tesis doctoral se aborda el estudio del proceso de expansión residencial que se han venido desarrollando en el espacio periurbano del Partido de La Plata desde principios de los años '90 hasta nuestros días. Para tal fin, se profundiza en el estudio de espacios periurbanos, caracterizados por su dinamismo, heterogeneidad y complejidad. En relación a los espacios residenciales que se desarrollan en estas áreas periféricas del Partido, fueron reconocidas tres tendencias diferenciadas: a) el proceso de urbanización cerrada, con tendencias al aislamiento de viviendas y complejos habitacionales, b) la "producción de periferia" relacionada con los sectores de población que no consiguen acceder al mercado formal de la tierra y la vivienda, asociada por lo general a modalidades de asentamiento espontáneo; y c) la ocupación gradual de baldíos urbanos con escasa o nula provisión de servicios y redes de infraestructura. En la presente Tesis se profundizará en las dos primeras de estas modalidades expansivas, indagándose en las lógicas de los distintos actores -sociales, políticos y económicos- que intervienen en el proceso urbano expansivo que hemos denominado "formal cerrado" e "informal abierto", respectivamente. La hipótesis que guía nuestro trabajo plantea que la expansión urbana en el Partido de La Plata trae aparejada una competencia por el territorio entre diferentes usos del suelo y actividades, con el consecuente incremento en los precios de la tierra, abandono de los sectores de bajos ingresos como habitantes originales y disminución del uso de tierra rural. Para dar respuesta a los objetivos e hipótesis planteados en nuestra Tesis, los criterios metodológicos adoptados parten de considerar al territorio como un sistema complejo. En este marco, el abordaje desde una visión sistémica y de la complejidad de nuestro objeto de estudio necesita de un abordaje dialéctico y de la convergencia metodológica para obtener distintos puntos de vista sobre el mismo. En el desarrollo de esta Tesis se han utilizado como herramientas de investigación: el método del estudio de caso, la construcción tipológica, la realización de entrevistas semiestructuradas y en profundidad, la utilización de modelos y la construcción de escenarios urbanos. Finalmente, producto de estos años de investigación en la temática, se arribó a las siguientes conclusiones, que han sido estructuradas en cinco apartados principales en función de su carácter predominantemente teórico, empírico, metodológico y/o propositivo, a saber: 1. el periurbano: ¿espacio de competencia o complementariedad?; 2. la construcción de tipologías como camino explicativo en materia de espacios periurbanos; 3. las lógicas residenciales periféricas: la "privatópolis" y la "precariópolis"; 4. las tendencias residenciales periféricas y los desafíos de la planificación urbana, y 5. nuevos interrogantes y perspectivas surgidos de esta Tesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo me interesa considerar los modos en que Ricardo Piglia se ha constituido como escritor que lee y ha hecho de esta operación una clave de sus materiales, no sólo en la crítica argentina, sino desde su doble localización como profesor en Estados Unidos y Buenos Aires, para articular estas operaciones con algunos debates sobre la constitución del canon de la crítica argentina a partir de protocolos críticos y estéticos, en la formulación de concepciones de la literatura y del crítico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este artículo abordaremos cómo se relacionan las experiencias formativas vinculadas al trabajo rural, las identificaciones y los conflictos ambientales en San Ignacio, Misiones (Argentina). Nos interesa problematizar cómo los aprendizajes ligados a las tareas rurales se vinculan con las auto-adscripciones de los sujetos, teniendo como referencia las categorías de actores sociales agrarios regionales y las denominaciones que provienen de agendas estatales de intervención. Estos procesos acontecen en un contexto de creciente concentración de propiedades que se destinan a la explotación forestal, donde observamos, en algunos casos, cierta ambientalización de los históricos conflictos territoriales. Utilizando materiales provenientes de un trabajo de campo etnográfico que iniciamos en 2008, presentaremos a dos familias de pobladores rurales. En ambos casos es posible ver cómo el acceso a la tierra es decisivo para las experiencias formativas en las actividades de reproducción social, y que se liga con identificaciones como "gente de la colonia" y una incipiente referencia a la "agricultura familiar" a partir de las intervenciones del Estado. Estas dos familias permiten mostrar cómo las experiencias e identificaciones se expresan en el contexto de la participación de los sujetos en conflictos sociales, que asumen en un caso la forma histórica de reclamos fundiarios mientras que, en el otro, es posible ver que el ambiente tiene protagonismo incipiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente trabajo me interesa considerar los modos en que Ricardo Piglia se ha constituido como escritor que lee y ha hecho de esta operación una clave de sus materiales, no sólo en la crítica argentina, sino desde su doble localización como profesor en Estados Unidos y Buenos Aires, para articular estas operaciones con algunos debates sobre la constitución del canon de la crítica argentina a partir de protocolos críticos y estéticos, en la formulación de concepciones de la literatura y del crítico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este artículo abordaremos cómo se relacionan las experiencias formativas vinculadas al trabajo rural, las identificaciones y los conflictos ambientales en San Ignacio, Misiones (Argentina). Nos interesa problematizar cómo los aprendizajes ligados a las tareas rurales se vinculan con las auto-adscripciones de los sujetos, teniendo como referencia las categorías de actores sociales agrarios regionales y las denominaciones que provienen de agendas estatales de intervención. Estos procesos acontecen en un contexto de creciente concentración de propiedades que se destinan a la explotación forestal, donde observamos, en algunos casos, cierta ambientalización de los históricos conflictos territoriales. Utilizando materiales provenientes de un trabajo de campo etnográfico que iniciamos en 2008, presentaremos a dos familias de pobladores rurales. En ambos casos es posible ver cómo el acceso a la tierra es decisivo para las experiencias formativas en las actividades de reproducción social, y que se liga con identificaciones como "gente de la colonia" y una incipiente referencia a la "agricultura familiar" a partir de las intervenciones del Estado. Estas dos familias permiten mostrar cómo las experiencias e identificaciones se expresan en el contexto de la participación de los sujetos en conflictos sociales, que asumen en un caso la forma histórica de reclamos fundiarios mientras que, en el otro, es posible ver que el ambiente tiene protagonismo incipiente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con el propósito de contribuir al conocimiento de las lógicas y tendencias de la expansión residencial en áreas periurbanas y su impronta en la organización futura de las ciudades medias, tendiente al logro de una relación armónica entre la actividad residencial y las otras actividades socioeconómicas que se presentan en dichas áreas, en la presente Tesis doctoral se aborda el estudio del proceso de expansión residencial que se han venido desarrollando en el espacio periurbano del Partido de La Plata desde principios de los años '90 hasta nuestros días. Para tal fin, se profundiza en el estudio de espacios periurbanos, caracterizados por su dinamismo, heterogeneidad y complejidad. En relación a los espacios residenciales que se desarrollan en estas áreas periféricas del Partido, fueron reconocidas tres tendencias diferenciadas: a) el proceso de urbanización cerrada, con tendencias al aislamiento de viviendas y complejos habitacionales, b) la "producción de periferia" relacionada con los sectores de población que no consiguen acceder al mercado formal de la tierra y la vivienda, asociada por lo general a modalidades de asentamiento espontáneo; y c) la ocupación gradual de baldíos urbanos con escasa o nula provisión de servicios y redes de infraestructura. En la presente Tesis se profundizará en las dos primeras de estas modalidades expansivas, indagándose en las lógicas de los distintos actores -sociales, políticos y económicos- que intervienen en el proceso urbano expansivo que hemos denominado "formal cerrado" e "informal abierto", respectivamente. La hipótesis que guía nuestro trabajo plantea que la expansión urbana en el Partido de La Plata trae aparejada una competencia por el territorio entre diferentes usos del suelo y actividades, con el consecuente incremento en los precios de la tierra, abandono de los sectores de bajos ingresos como habitantes originales y disminución del uso de tierra rural. Para dar respuesta a los objetivos e hipótesis planteados en nuestra Tesis, los criterios metodológicos adoptados parten de considerar al territorio como un sistema complejo. En este marco, el abordaje desde una visión sistémica y de la complejidad de nuestro objeto de estudio necesita de un abordaje dialéctico y de la convergencia metodológica para obtener distintos puntos de vista sobre el mismo. En el desarrollo de esta Tesis se han utilizado como herramientas de investigación: el método del estudio de caso, la construcción tipológica, la realización de entrevistas semiestructuradas y en profundidad, la utilización de modelos y la construcción de escenarios urbanos. Finalmente, producto de estos años de investigación en la temática, se arribó a las siguientes conclusiones, que han sido estructuradas en cinco apartados principales en función de su carácter predominantemente teórico, empírico, metodológico y/o propositivo, a saber: 1. el periurbano: ¿espacio de competencia o complementariedad?; 2. la construcción de tipologías como camino explicativo en materia de espacios periurbanos; 3. las lógicas residenciales periféricas: la "privatópolis" y la "precariópolis"; 4. las tendencias residenciales periféricas y los desafíos de la planificación urbana, y 5. nuevos interrogantes y perspectivas surgidos de esta Tesis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La estrategia i2010 de la UE tiene como objetivo garantizar el liderazgo europeo en materia de TIC y poner los beneficios de la Sociedad de la Información al servicio de la economía, la sociedad y la calidad de vida personal, teniendo presente que los éxitos de Europa hasta la fecha se han basado en favorecer la competencia leal en los mercados de las telecomunicaciones y crear un mercado sin fronteras para contenidos y medios de comunicación digitales. En esta línea, la Comisión Europea ha establecido que los distintos estados miembros deben contribuir activamente al desarrollo y uso seguro de los servicios telemáticos entre sus ciudadanos. Más concretamente, atribuye a las Administraciones Públicas, tanto a nivel nacional, regional como local, un papel dinamizador de la Sociedad de la Información que les obliga a ofrecer paulatinamente todos los actos administrativos a los ciudadanos a través de Internet. Como primer paso para el uso seguro de los servicios telemáticos que ofrecen las instituciones públicas se hace preciso dotar a los ciudadanos de una identidad digital que les permita identificarse ante un Proveedor de Servicio o ante otros ciudadanos de manera inequívoca. Por esta razón, la mayoría de países europeos – y otros en el resto del mundo – están promoviendo, sistemas fiables de gestión de identidad electrónica (eIDM), de tal manera que los ciudadanos, las empresas y departamentos gubernamentales (incluso en Estados miembros diferentes) pueden identificar y certificar sus operaciones con precisión, rapidez y sencillez. Sin embargo, la gestión de esta identidad por las Administraciones Públicas supone un importante desafío, acentuado cuando se hace necesaria la interoperabilidad entre Administraciones de diferentes países, puesto que personas y entidades tienen credenciales de identificación diferentes en función de su propio marco jurídico nacional. Consciente del problema, en la Unión Europea se han puesto en marcha una serie de proyectos con el objetivo de conseguir la interoperabilidad de los eIDMs entre las instituciones públicas de diferentes Estados miembros. A pesar de ello, las soluciones adoptadas hasta la fecha son insuficientes porque no prevén todos los posibles casos de interacción del usuario con las instituciones. En concreto, no tienen en cuenta un aspecto muy importante que se ofrece en los distintos sistemas jurídicos nacionales, a saber, la delegación de la identidad, mediante la cual un ciudadano puede autorizar a otro para que actúe en su nombre para acceder a determinados servicios prestados por las instituciones públicas. En esta tesis se realizan un conjunto de aportaciones que dan solución a distintos aspectos de los problemas planteados y que, de forma conjunta, permiten la interoperabilidad y la delegación de identidad en determinados Sistemas de Gestión de Identidad aplicados al entorno de las Administraciones Públicas. En el caso de la delegación, se ha definido un sistema de delegación dinámica de identidad entre dos entidades genéricas que permite solucionar el problema del acceso delegado a los servicios telemáticos ofrecidos por las Administraciones Públicas. La solución propuesta se basa en la generación de un token de delegación, constituido a partir de un Certificado Proxy, que permite a la entidad que delega establecer la delegación de identidad en otra entidad en base a un subconjunto de sus atributos como delegador, estableciendo además, en el propio token de delegación, restricciones en el conjunto de servicios accesibles a la entidad delegada y el tiempo de validez de la delegación. Adicionalmente, se presentan los mecanismos necesarios tanto para poder revocar un token de delegación como para comprobar sin un token de delegación ha sido o no revocado. Para ello se propone una solución para la identificación unívoca de tokens de delegación y la creación de una nueva entidad denominada Autoridad de Revocación de Tokens de Delegación. Entre las características del sistema de delegación propuesto destaca el que es lo suficientemente seguro como para ser utilizado en el entorno de la Administración Pública, que no requiere el uso de mecanismos off‐line para la generación de la delegación y que se puede realizar la delegación de forma instantánea y sin la necesidad de trámites complejos o la participación de un elevado número de entidades. Adicionalmente, el token de delegación propuesto es perfectamente integrable en las infraestructura de clave pública actual lo que hace que, dado que gran parte de las Administraciones Públicas europeas basan sus sistemas de identidad digital en el uso de la PKI y certificados de identidad X.509, la solución pueda ser puesta en marcha en un entorno real sin necesidad de grandes cambios o modificaciones de comportamiento. En lo referente a la interoperabilidad, se realiza un análisis exhaustivo y la correspondiente evaluación de las principales propuestas de Sistemas de Gestión de Identidad orientados a conseguir la interoperabilidad realizadas hasta la fecha en el marco de la Unión Europea y se propone, a alto nivel, una arquitectura de interoperabilidad para la gestión de identidad en las Administraciones Públicas. Dicha arquitectura es lo suficientemente genérica como para poder ser aplicada tanto en el entorno pan‐Europeo como en los entornos nacionales, autonómicos y locales, de tal forma que la interoperabilidad en la gestión de la identidad esté garantizada en todos los niveles de la Administración Pública. Por último, mediante la integración de la solución de delegación dinámica de identidad y la arquitectura de interoperabilidad propuestas se presenta una solución al problema de la delegación en un escenario pan‐Europeo de gestión de identidad, dando lugar a una arquitectura global de interoperabilidad pan‐Europea con soporte a la delegación de identidad. SUMMARY The i2010 European Union Plan aims to ensure European leadership in ICT and to promote the positive contribution that information and communication technologies can make to the economic, social and personal quality of life, bearing in mind that, to date, success in Europe has been based on promoting fair competition in telecommunications markets and on creating a borderless market for contents and digital media. In this line, the European Commission has established that the different member states should contribute actively to the development and secure use of telematic services among their citizens. More specifically, it is attributed to national, regional and local Public Administrations to have a supportive role of the Information Society, requiring them to gradually provide the citizens with Internet‐based access to all administrative procedures acts. As a first step for the secure use of telematic services offered by public institutions, it is necessary to provide the citizens with a digital identity to enable them to identify themselves unequivocally to a Service Provider or to other citizens. For this reason, most European countries ‐ and others in the rest of the world ‐ are promoting reliable systems for managing electronic identity (eIDM), so that citizens, businesses and government departments (even in different Member States) can identify and certify their operations with precision, speed and simplicity. However, the identity management by Public Administrations is a major challenge that becomes more difficult when interoperability between administrations of different countries is needed, due to the fact that individuals and entities have different identification credentials according to their own national legal framework. Aware of the problem, the European Union has launched a series of projects with the aim of achieving interoperability of eIDMs between public institutions of different Member States. However, the solutions adopted to date are insufficient because they do not foresee all possible cases of user interaction with the institutions. In particular, solutions do not take into account a very important aspect that is offered in different national legal systems, namely, the delegation of identity, by which a citizen can authorize another to act on his/her behalf to access certain services provided by public institutions. In this thesis a collection of contributions that provide solution to different aspects of the aforementioned problems are carried out. The solutions, in global, enable interoperability and identity delegation in some of the Identity Management Systems applied to Public Administration environment. In the case of delegation, a dynamic identity delegation system between generic entities is defined. This system makes it possible to solve the problem of delegated access to telematic services offered by Public Administrations. The proposed solution is based on the generation of a piece of information called delegation token. This delegation token, derived from a Proxy Certificate, allows the establishment of identity delegation by an entity that delegates (delegator) in other entity (delegatee) making use of a subset of delegator attributes. It also establishes restrictions on services that can be used by the delegated entity and the expiry date of delegation. In addition to this, the mechanisms necessary to revoke and check the revocation status of a delegation token are presented. To do this, a solution to univocally identify delegation tokens and the creation of a completely new entity, called Token Delegation Revocation Authority, are proposed. The most remarkable characteristics of the proposed delegation system are its security, enough for it to be used in the Public Administration environment, the fact that it does not require off‐line processes in order to generate the delegation, and the possibility of performing the delegation instantaneously and without neither complex processes nor the intervention of a large number of entities. The proposed delegation token can be completely incorporated into current Public Key Infrastructure (PKI). Thus, since most of the European Public Administrations base their digital identity systems on PKI and X.509 identity certificates, the solution can be adopted in a real environment without great changes or performance modifications. Regarding interoperability, an exhaustive analysis and evaluation of most significant proposals on Identity Management Systems that aim to achieve interoperability carried out in the European Union framework until now are performed. A high level identity management interoperability architecture for Public Administrations is also proposed. This architecture is sufficiently generic to be applied to both pan‐European environment and national, regional or local environments, thus interoperability in identity management at all Public Administration levels is guaranteed. Finally, through the integration of the proposed dynamic identity delegation solution and the high level interoperability architecture, a solution to the problem of identity delegation in a pan‐European identity management environment is suggested, leading to a pan‐European global interoperability architecture with identity delegation support.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La productividad es un factor importante que influye en la viabilidad económica de un cultivo energético de sauce y maximizarla se convierte en un tema primordial. Esta investigación está directamente relacionada con dicha característica. La productividad varía según los clones cultivados, que pueden ser mejorados y seleccionados genéticamente. Los programas genéticos requieren de una información previa (productividad media en función del porte y número de los tallos, características de las hojas, resistencia a las plagas, etc.) que ayudará a obtener clones más productivos y resistentes. Por ello, nuestra investigación consta de dos estudios: (1) Evaluación de la eficiencia del uso de la luz o LUE (Light Use Efficiency). El incremento de biomasa y la eficiencia del uso de la luz (LUE) fue estudiado en 15 clones del genero Salix durante los meses de junio a septiembre de 2011 en Belleville (Central New York, USA). Los objetivos de este estudio fueron: (1) Evaluar la eficiencia del uso de la luz en la explicación a la variación en la producción de biomasa y (2) Determinar si existen diferencias significativas entre clones evaluando el índice de área foliar (LAI) y algunos componentes de las hojas (N, P, K,…). Se concluye que la variación de biomasa está relacionada con la cantidad de luz interceptada y con la eficiencia de su uso. Dicha información debe de ser transferida para ayudar a mejorar genéticamente los futuros clones a comercializar, con el fin de maximizar la productividad y aumentar la resistencia a plagas. (2) Estimación de biomasa a través de modelos de regresión. Los estudios de investigación relacionados con la productividad requieren estimaciones no destructivas de la biomasa aérea. Sin embargo, el nivel de precisión requerido y la inversión de tiempo son excesivos para operaciones comerciales con grandes extensiones (plantaciones de 10.000 ha). Por esta razón, se estudia el nivel de especificidad (específico, intermedio y general) en la toma de datos de campo sobre los mismos 15 clones (12 de ellos se pueden agrupar en 5 grupos según su genotipo origen) del genero Salix, empleados en el estudio anterior. Para todos los niveles estudiados se observaron diferencias significativas. Pero desde nuestro punto de vista, las diferencias obtenidas no son relevantes. Para validar los modelos finalmente seleccionados se calcularon los porcentajes de error entre la biomasa estimada por los modelos de regresión calculados y la biomasa real obtenida tras los pesajes de biomasa, todo ello se realizó para cada clon según nivel de especificidad. ABSTRACT Productivity is an important factor in the economic viability of a willow crop´s, therefore, maximize it becomes a major factor. This study is directly related to this feature. Productivity, among other factors, may vary depending on different clones, which can be improved and selected genetically. Genetic programs require prior information (average productivity, size and number of stems, leaf characteristics, resistance to pests, etc.) to help you get more productive clones resistant to local pests. Our research consists of two studies: (1) Evaluation of the efficiency of use of light (LUE, Light Use Efficiency). The increase of biomass and light use efficiency (LUE) was tested on 15 clones of the genus Salix during June and September 2011 in Belleville (Central New York, USA). The objectives of this study were: (1) evaluate the light use efficiency and its relationship with the variation in biomass production and (2) determine whether there are significant differences between clones evaluating the leaf area index (LAI) and some traits of the leaves (N, P, K). We studied the correlation with the light use efficiency. It is concluded that the variation of biomass was related to the amount of light intercepted and its efficiency. Such information must be transferred to help improve future genetically clones to market in order to maximize productivity and increase resistance to pests. (2) Estimation of biomass through regression models. Research studies related to productivity estimates require precision and non destructive biomass. However, the level of accuracy required and the investment of time are excessive for large commercial operations with extensions (plantations of 10,000 ha). Precisely for this reason, we study the level of specificity (specific, intermediate and general) in making field data on the same 15 clones (12 of them can be grouped into five groups according to their genotype origin) of the genus Salix, employees in the previous study. For all levels studied some significant differences were observed. But from our practical standpoint, the differences are not relevant. Finally, to validate the selected models, we calculated the percent of bias between estimated biomass (by the regression models) and real biomass obtained after the weighing of biomass, all this process was done for each clone by level of specificity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

There are a number of factors that contribute to the success of dental implant operations. Among others, is the choice of location in which the prosthetic tooth is to be implanted. This project offers a new approach to analyse jaw tissue for the purpose of selecting suitable locations for teeth implant operations. The application developed takes as input jaw computed tomography stack of slices and trims data outside the jaw area, which is the point of interest. It then reconstructs a three dimensional model of the jaw highlighting points of interest on the reconstructed model. On another hand, data mining techniques have been utilised in order to construct a prediction model based on an information dataset of previous dental implant operations with observed stability values. The goal is to find patterns within the dataset that would help predicting the success likelihood of an implant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work describes an experience with a methodology for learning based on competences in Linear Algebra for engineering students. The experience has been based in autonomous team work of students. DERIVE tutorials for Linear Algebra topics are provided to the students. They have to work with the tutorials as their homework. After, worksheets with exercises have been prepared to be solved by the students organized in teams, using DERIVE function previously defined in the tutorials. The students send to the instructor the solution of the proposed exercises and they fill a survey with their impressions about the following items: ease of use of the files, usefulness of the tutorials for understanding the mathematical topics and the time spent in the experience. As a final work, we have designed an activity directed to the interested students. They have to prepare a project, related with a real problem in Science and Engineering. The students are free to choose the topic and to develop it but they have to use DERIVE in the solution. Obviously they are guided by the instructor. Some examples of activities related with Orthogonal Transformations will be presented.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Ingeniería de Pruebas está especializada en la verificación y validación del Software,y formalmente se define como: “Proceso de desarrollo que emplea métodos rigurosos para evaluar la corrección y calidad del producto a lo largo de todo su ciclo de vida” [3]. Este proceso comprende un conjunto de métodos, procedimientos y técnicas formalmente definidas las cuales, usadas de forma sistemática, facilitan la identificación de la mayor cantidad de errores y fallos posibles de un software. Un software que pase un proceso riguroso de pruebas es un producto de calidad que seguramente facilitará la labor del Ingeniero de Software en la corrección de futuras incidencias, algunas de ellas generadas tras la implantación en el entorno real. Este proceso constituye un área de la Ingeniería del Software y una especialidad por tanto, de la misma. De forma simple, la consecución de una correcta Verificación y Validación del Software requiere de algunas actividades imprescindibles como: - Realizar un plan de pruebas del proyecto. - Actualizar dicho plan y corregirlo en caso necesario. - Revisar los documentos de análisis de requisitos. - Ejecutar las pruebas en las diferentes fases del desarrollo del proyecto. - Documentar el diseño y la ejecución de las pruebas. - Generar documentos con los resultados y anomalías de las pruebas ya ejecutadas. Actualmente, la Ingeniería de Pruebas no es muy reconocida como área de trabajo independiente sino más bien, un área inmersa dentro de la Ingeniería de Software. En el entorno laboral existe el perfil de Ingeniero de Pruebas, sin embargo pocos ingenieros de software tienen claro querer ser Ingenieros de Pruebas (probadores o testers) debido a que nunca han tenido la oportunidad de enfrentarse a actividades prácticas reales dentro de los centros de estudios universitarios donde cursan la carrera. Al ser un área de inherente ejercicio profesional, la parte correspondiente de la Ingeniería de Pruebas suele enfocarse desde un punto de vista teórico más que práctico. Hay muchas herramientas para la creación de pruebas y de ayuda para los ingenieros de pruebas, pero la mayoría son de pago o hechas a medida para grandes empresas que necesitan dicho software. Normalmente la gente conoce lo que es la Ingeniería de Pruebas únicamente cuando se empieza a adquirir experiencia en dicha área en el ejercicio profesional dentro de una empresa. Con lo cual, el acercamiento durante la carrera no necesariamente le ha ofrecido al profesional en Ingeniería, la oportunidad de trabajar en esta rama de la Ingeniería del Software y en algunos casos, NOVATests: Metodología y herramienta software de apoyo para los Ingenieros de Prueba Junior 4 los recién egresados comienzan su vida profesional con algún desconocimiento en este sentido. Es por el conjunto de estas razones, que mi intención en este proyecto es proponer una metodología y una herramienta software de apoyo a dicha metodología, para que los estudiantes de carreras de Ingeniería Software y afines, e ingenieros recién egresados con poca experiencia o ninguna en esta área (Ingenieros de Pruebas Junior), puedan poner en práctica las actividades de la Ingeniería de Pruebas dentro de un entorno lo más cercano posible al ejercicio de la labor profesional. De esta forma, podrían desarrollar las tareas propias de dicha área de una manera fácil e intuitiva, favoreciendo un mayor conocimiento y experiencia de la misma. ABSTRACT The software engineering is specialized in the verification and validation of Software and it is formally defined as: “Development process which by strict methods evaluates and corrects the quality of the product along its lifecycle”. This process contains a number of methods, procedures and techniques formally defined which used systematically make easier the identification of the highest quantity of error and failures within a Software. A software going through this rigorous process of tests will become a quality product that will help the software engineer`s work while correcting incidences. Some of them probably generated after the deployment in a real environment. This process belongs to the Software engineering and therefore it is a specialization itself. Simplifying, the correct verification and validation of a software requires some essential activities such as: -Create a Test Plan of the project - Update this Test Plan and correct if necessary - Check Requirement’s specification documents -Execute the different tests among all the phases of the project - Create the pertinent documentation about design and execution of these tests. - Generate the result documents and all the possible incidences the tests could contain. Currently, the Test engineering is not recognized as a work area but an area immerse within the Software engineering. The professional environment includes the role of Test engineer, but only a few software engineers have clear to become Test engineers (testers) because they have never had the chance to face this activities within the university study centers where they take study of this degree. Since there are little professional environments, this area is focused from a theoretical way instead of a more practical vision. There are plenty of tools helping the Test engineer, but most of them are paid tools or bespoke tools for big companies in need of this software. Usually people know what test engineering is by starting working on it and not before, when people start acquiring experience in this field within a company. Therefore, the degree studied have not approach this field of the Software engineering before and in some cases the graduated students start working without any knowledge in this area. Because of this reasons explained, it is my intention to propose this Project: a methodology and a software tool supporting this methodology so the students of software engineering and similar ones but also graduated students with little experience in this area (Junior Test Engineers), can afford practice in this field and get used to the activities related with the test engineering. Because of this they will be able to carry out the proper tasks of this area easier, enforcing higher and better knowledge and experience of it.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hoy en día, los teléfonos inteligentes forman parte de la vida de la mayoría de las personas, desde los usuarios más jóvenes a los más adultos, demostrando su utilidad en distintas actividades y con objetivos diferentes, como pueden ser por cuestiones de trabajo, estudio, ocio o incluso seguridad. Con respecto a este último aspecto se ha detectado una utilidad práctica para el colectivo de peatones. Según la DGT el 48% de los fallecidos en accidentes urbanos fueron peatones. Con el objetivo de disminuir drásticamente esta cifra se ideó un proyecto que incrementara la seguridad del peatón avisándole de los potenciales peligros que pudieran afectarle. Para ello era necesario que los vehículos de su entorno, de alguna manera, informaran de su posición y trayectoria y que un software analizara esta información para detectar potenciales situaciones de riesgo. Dada la versatilidad y la ubicuidad de los teléfonos inteligentes (prácticamente la mayoría de personas lo llevan continuamente) se decidió utilizarlos como soporte para el procesado de esta información. Para especificar la funcionalidad de la aplicación se han definido una serie de historias de usuario. La aplicación desarrollada solicita a los vehículos la información necesaria para calcular sus trayectorias y comprueba si pueden suponer algún peligro para el peatón, alertándole en ese caso. ABSTRACT Nowadays, smartphones are part of most people’s life, from the youngest to the oldest users, showing their usefulness in different activities and with different objectives, such as labour issues, studies, leisure or even safety. With respect to this last point, it has been detected a practical utility for pedestrians. According to the DGT, the 48% of the deceased due to urban accidents were pedestrians. In order to slash this figure, it was devised a project to increase pedestrian safety warning him of potential hazards that could affect him. To do so, it was needed that vehicles around him report their position and trajectory, and that a software analyse this information to detect potential risk situations. Due to the versatility and ubiquity of smartphones (practically the majority of people carries them continuously), it was decided to use them as support for the processing of this information. To specify the application functionality, it has been defined a set of user stories. The application developed requests the information needed to the vehicles to calculate their trajectories and checks if they may constitute a hazard for pedestrians, alerting them if that is the case.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho pretende apresentar e compreender o papel da gestão estratégica de pessoas, dentro de uma visão que contempla as relações interorganizacionais fora dos limites tradicionais de seu escopo nas empresas e expandidas além das dimensões formais e fronteiras que permeiam uma organização. Este estudo estabelece a importância e sistemáticas da gestão de atividades de RH, compartilhadas com a cadeia de valor externa, analisando-as nas práticas com os canais de distribuição junto aos clientes. Esta área organizacional é denominada pelo autor de GRE - Gestão das Relações Estratégicas. Baseando-se em uma pesquisa exploratória em 26 empresas, organizada a partir de cinco empresas nodais e seus canais de distribuição, utilizou-se a aplicação de um questionário de pesquisa com escala Likert e entrevistas pessoais semi-estruturadas junto aos gestores e profissionais de diversas áreas, bem como o tratamento estatístico dos dados com o programa SPSS, indicando a confirmação das questões de pesquisa relativas a GRE como sendo uma proposta de expansão das atividades do RH, focando em como se pode e devem entregar valor para a organização, para os aliados estratégicos, os investidores e fundamentalmente para os clientes.(AU)