988 resultados para CONTRIBUCIÓN ESPECIAL DE MEJORAS
Resumo:
El principio de beneficio se considera eje fundamental de la contribución especial de mejora, al punto que su observancia justifica la creación del tributo. En el presente documento se hará referencia de manera introductora a los tributos y las contribuciones, así como la conceptualización del principio de beneficio y a los distintos tipos de beneficio que pueden existir tras la realización de las obras ejecutadas con intervención estatal y que serán financiadas a través de la contribución especial de mejoras. Así mismo se hará mención al principio de capacidad contributiva y las posibles tensiones que pueden existir entre éste y el principio de beneficio. En el segundo capítulo se tratará sobre la contribución especial de mejoras, el principio de beneficio y otras consideraciones que en la práctica se observan para la determinación de este tipo de tributo, tanto en el Ecuador como en legislación comparada para concluir la importancia que tiene en la práctica el beneficio percibido por el sujeto pasivo al determinar la contribución especial de mejora. Finalmente, tras el análisis doctrinario del primer capítulo y normativo del segundo, se analizará ordenanzas ecuatorianas para constatar la aplicación del principio de beneficio en la contribución especial de mejoras y se procurará llegar a una propuesta que permita la estandarización de criterios para el establecimiento y cálculo de la contribución especial de mejoras en el Ecuador.
Resumo:
Los altos niveles de violencia que se viven en El Salvador, han originado que las autoridades busquen soluciones para brindar seguridad a todos los ciudadanos, es por ello que la honorable Asamblea Legislativa mediante decreto N° 161 da vida a la contribución especial a los grandes contribuyentes para el plan de seguridad ciudadana, la cual grava las ganancias netas anuales superiores a $500,000 de los grandes contribuyentes en El Salvador. Los fondos obtenidos de la contribución especial, serán utilizados en actividades enfocadas en la seguridad ciudadana, combate contra la violencia y la prevención de la misma. Por tal razón, se hace necesario analizar la implementación de la contribución especial en el sector bancario del país y su impacto financiero. El análisis está enfocado en las entidades del sistema bancario de El Salvador, y para ello se tomarán los 5 bancos de mayor representatividad respecto a sus activos; para realizar el análisis se hará una comparación interanual de los años 2015 y 2016 con los Estados Financieros, ratios financieros y fondo patrimonial presentados por las entidades bancarias, y poder observar si las entidades se han visto afectadas por la contribución especial. Del estudio a las entidades bancarias analizadas, ninguna presenta una situación financiera desfavorable, pues los índices legales y prudenciales muestran niveles superiores a los mínimos requeridos por la Superintendencia del Sistema Financiero, dado que su coeficiente patrimonial y de endeudamiento únicamente disminuyen en 0.01%, respecto al año 2015, cifra que no tiene representatividad alguna en la operatividad.
Resumo:
En el contexto del sensible progreso que experimentó la educación especial en España en las primeras décadas del S. XX y siguiendo el ejemplo del Centro Instructivo y Protector de Ciegos de Madrid entre 1910-1918 fueron apareciendo sociedades similares en otras ciudades. En Málaga surgen el Centro de Instrucción y Protección de Ciegos 'La Nueva Aurora' y la 'Agrupación Artística de Ciegos'. Se analizan su organización estatutos y funciones.
Resumo:
A comienzo de los años 30 del S. XX funcionan en Málaga dos establecimientos educativos para invidentes, el Instituto Malagueño de Ciegos y Sordomudos y las Asociaciones de Invidentes, entre las que se encuentran: La Asociación Provincial Protectora de Ciegos. La Unión de Trabajadores Ciegos. Unificación de las Asociaciones de Invidentes (La Sociedad Provincial de Ciegos). Se analizan su organización, objetivos y funciones.
Resumo:
Incluye Bibliografía
Resumo:
Determinar con buena precisión la posición en la que se encuentra un terminal móvil, cuando éste se halla inmerso en un entorno de interior (centros comerciales, edificios de oficinas, aeropuertos, estaciones, túneles, etc), es el pilar básico sobre el que se sustentan un gran número de aplicaciones y servicios. Muchos de esos servicios se encuentran ya disponibles en entornos de exterior, aunque los entornos de interior se prestan a otros servicios específicos para ellos. Ese número, sin embargo, podría ser significativamente mayor de lo que actualmente es, si no fuera necesaria una costosa infraestructura para llevar a cabo el posicionamiento con la precisión adecuada a cada uno de los hipotéticos servicios. O, igualmente, si la citada infraestructura pudiera tener otros usos distintos, además del relacionado con el posicionamiento. La usabilidad de la misma infraestructura para otros fines distintos ofrecería la oportunidad de que la misma estuviera ya presente en las diferentes localizaciones, porque ha sido previamente desplegada para esos otros usos; o bien facilitaría su despliegue, porque el coste de esa operación ofreciera un mayor retorno de usabilidad para quien lo realiza. Las tecnologías inalámbricas de comunicaciones basadas en radiofrecuencia, ya en uso para las comunicaciones de voz y datos (móviles, WLAN, etc), cumplen el requisito anteriormente indicado y, por tanto, facilitarían el crecimiento de las aplicaciones y servicios basados en el posicionamiento, en el caso de poderse emplear para ello. Sin embargo, determinar la posición con el nivel de precisión adecuado mediante el uso de estas tecnologías, es un importante reto hoy en día. El presente trabajo pretende aportar avances significativos en este campo. A lo largo del mismo se llevará a cabo, en primer lugar, un estudio de los principales algoritmos y técnicas auxiliares de posicionamiento aplicables en entornos de interior. La revisión se centrará en aquellos que sean aptos tanto para tecnologías móviles de última generación como para entornos WLAN. Con ello, se pretende poner de relieve las ventajas e inconvenientes de cada uno de estos algoritmos, teniendo como motivación final su aplicabilidad tanto al mundo de las redes móviles 3G y 4G (en especial a las femtoceldas y small-cells LTE) como al indicado entorno WLAN; y teniendo siempre presente que el objetivo último es que vayan a ser usados en interiores. La principal conclusión de esa revisión es que las técnicas de triangulación, comúnmente empleadas para realizar la localización en entornos de exterior, se muestran inútiles en los entornos de interior, debido a efectos adversos propios de este tipo de entornos como la pérdida de visión directa o los caminos múltiples en el recorrido de la señal. Los métodos de huella radioeléctrica, más conocidos bajo el término inglés “fingerprinting”, que se basan en la comparación de los valores de potencia de señal que se están recibiendo en el momento de llevar a cabo el posicionamiento por un terminal móvil, frente a los valores registrados en un mapa radio de potencias, elaborado durante una fase inicial de calibración, aparecen como los mejores de entre los posibles para los escenarios de interior. Sin embargo, estos sistemas se ven también afectados por otros problemas, como por ejemplo los importantes trabajos a realizar para ponerlos en marcha, y la variabilidad del canal. Frente a ellos, en el presente trabajo se presentan dos contribuciones originales para mejorar los sistemas basados en los métodos fingerprinting. La primera de esas contribuciones describe un método para determinar, de manera sencilla, las características básicas del sistema a nivel del número de muestras necesarias para crear el mapa radio de la huella radioeléctrica de referencia, junto al número mínimo de emisores de radiofrecuencia que habrá que desplegar; todo ello, a partir de unos requerimientos iniciales relacionados con el error y la precisión buscados en el posicionamiento a realizar, a los que uniremos los datos correspondientes a las dimensiones y realidad física del entorno. De esa forma, se establecen unas pautas iniciales a la hora de dimensionar el sistema, y se combaten los efectos negativos que, sobre el coste o el rendimiento del sistema en su conjunto, son debidos a un despliegue ineficiente de los emisores de radiofrecuencia y de los puntos de captura de su huella. La segunda contribución incrementa la precisión resultante del sistema en tiempo real, gracias a una técnica de recalibración automática del mapa radio de potencias. Esta técnica tiene en cuenta las medidas reportadas continuamente por unos pocos puntos de referencia estáticos, estratégicamente distribuidos en el entorno, para recalcular y actualizar las potencias registradas en el mapa radio. Un beneficio adicional a nivel operativo de la citada técnica, es la prolongación del tiempo de usabilidad fiable del sistema, bajando la frecuencia en la que se requiere volver a capturar el mapa radio de potencias completo. Las mejoras anteriormente citadas serán de aplicación directa en la mejora de los mecanismos de posicionamiento en interiores basados en la infraestructura inalámbrica de comunicaciones de voz y datos. A partir de ahí, esa mejora será extensible y de aplicabilidad sobre los servicios de localización (conocimiento personal del lugar donde uno mismo se encuentra), monitorización (conocimiento por terceros del citado lugar) y seguimiento (monitorización prolongada en el tiempo), ya que todos ellas toman como base un correcto posicionamiento para un adecuado desempeño. ABSTRACT To find the position where a mobile is located with good accuracy, when it is immersed in an indoor environment (shopping centers, office buildings, airports, stations, tunnels, etc.), is the cornerstone on which a large number of applications and services are supported. Many of these services are already available in outdoor environments, although the indoor environments are suitable for other services that are specific for it. That number, however, could be significantly higher than now, if an expensive infrastructure were not required to perform the positioning service with adequate precision, for each one of the hypothetical services. Or, equally, whether that infrastructure may have other different uses beyond the ones associated with positioning. The usability of the same infrastructure for purposes other than positioning could give the opportunity of having it already available in the different locations, because it was previously deployed for these other uses; or facilitate its deployment, because the cost of that operation would offer a higher return on usability for the deployer. Wireless technologies based on radio communications, already in use for voice and data communications (mobile, WLAN, etc), meet the requirement of additional usability and, therefore, could facilitate the growth of applications and services based on positioning, in the case of being able to use it. However, determining the position with the appropriate degree of accuracy using these technologies is a major challenge today. This paper provides significant advances in this field. Along this work, a study about the main algorithms and auxiliar techniques related with indoor positioning will be initially carried out. The review will be focused in those that are suitable to be used with both last generation mobile technologies and WLAN environments. By doing this, it is tried to highlight the advantages and disadvantages of each one of these algorithms, having as final motivation their applicability both in the world of 3G and 4G mobile networks (especially in femtocells and small-cells of LTE) and in the WLAN world; and having always in mind that the final aim is to use it in indoor environments. The main conclusion of that review is that triangulation techniques, commonly used for localization in outdoor environments, are useless in indoor environments due to adverse effects of such environments as loss of sight or multipaths. Triangulation techniques used for external locations are useless due to adverse effects like the lack of line of sight or multipath. Fingerprinting methods, based on the comparison of Received Signal Strength values measured by the mobile phone with a radio map of RSSI Recorded during the calibration phase, arise as the best methods for indoor scenarios. However, these systems are also affected by other problems, for example the important load of tasks to be done to have the system ready to work, and the variability of the channel. In front of them, in this paper we present two original contributions to improve the fingerprinting methods based systems. The first one of these contributions describes a method for find, in a simple way, the basic characteristics of the system at the level of the number of samples needed to create the radio map inside the referenced fingerprint, and also by the minimum number of radio frequency emitters that are needed to be deployed; and both of them coming from some initial requirements for the system related to the error and accuracy in positioning wanted to have, which it will be joined the data corresponding to the dimensions and physical reality of the environment. Thus, some initial guidelines when dimensioning the system will be in place, and the negative effects into the cost or into the performance of the whole system, due to an inefficient deployment of the radio frequency emitters and of the radio map capture points, will be minimized. The second contribution increases the resulting accuracy of the system when working in real time, thanks to a technique of automatic recalibration of the power measurements stored in the radio map. This technique takes into account the continuous measures reported by a few static reference points, strategically distributed in the environment, to recalculate and update the measurements stored into the map radio. An additional benefit at operational level of such technique, is the extension of the reliable time of the system, decreasing the periodicity required to recapture the radio map within full measurements. The above mentioned improvements are directly applicable to improve indoor positioning mechanisms based on voice and data wireless communications infrastructure. From there, that improvement will be also extensible and applicable to location services (personal knowledge of the location where oneself is), monitoring (knowledge by other people of your location) and monitoring (prolonged monitoring over time) as all of them are based in a correct positioning for proper performance.
Resumo:
Uno de los principales retos de la sociedad actual es la evolución de sectores como el energético y el de la automoción a un modelo sostenible, responsable con el medio ambiente y con la salud de los ciudadanos. Una de las posibles alternativas, es la célula de combustible de hidrógeno, que transforma la energía química del combustible (hidrógeno) en corriente continua de forma limpia y eficiente. De entre todos los tipos de célula, gana especial relevancia la célula de membrana polimérica (PEM), que por sus características de peso, temperatura de trabajo y simplicidad; se presenta como una gran alternativa para el sector de la automoción entre otros. Por ello, el objetivo de este trabajo es ahondar en el conocimiento de la célula de combustible PEM. Se estudiarán los fundamentos teóricos que permitan comprender su funcionamiento, el papel de cada uno de los elementos de la célula y cómo varían sus características el funcionamiento general de la misma. También se estudiará la caracterización eléctrica, por su papel crucial en la evaluación del desempeño de la célula y para la comparación de modificaciones introducidas en ella. Además, se realizará una aplicación práctica en colaboración con los proyectos de fin de máster y doctorado de otros estudiantes del Politécnico de Milán, para implementar las técnicas aprendidas de caracterización eléctrica en una célula trabajando con diferentes tipos de láminas de difusión gaseosa (GDL y GDM) preparadas por estudiantes. Los resultados de la caracterización, permitirán analizar las virtudes de dos modificaciones en la composición clásica de la célula, con el fin de mejorar la gestión del agua que se produce en la zona catódica durante la reacción, disminuyendo los problemas de difusión a altas densidades de corriente y la consiguiente pérdida de potencial en la célula. Las dos modificaciones son: la inclusión de una lámina de difusión microporosa (MPL) a la lámina macroporosa habitual (GDL), y el uso de diversos polímeros con mejores propiedades hidrófobas en el tratamiento de dichas láminas de difusión. La célula de combustible es un sistema de conversión de energía electroquímico, en el que se trasforma de forma directa, energía química en energía eléctrica de corriente continua. En el catalizador de platino del ánodo se produce la descomposición de los átomos de hidrógeno. Los protones resultantes viajarán a través de la membrana de conducción protónica (que hace las veces de electrolito y supone el alma de la célula PEM) hasta el cátodo. Los electrones, en cambio, alcanzarán el cátodo a través de un circuito externo produciendo trabajo. Una vez ambas especies se encuentran en el cátodo, y junto con el oxígeno que sirve como oxidante, se completa la reacción, produciéndose agua. El estudio termodinámico de la reacción que se produce en la célula nos permite calcular el trabajo eléctrico teórico producido por el movimiento de cargas a través del circuito externo, y con él, una expresión del potencial teórico que presentará la célula, que variará con la temperatura y la presión; Para una temperatura de 25°C, este potencial teórico es de 1.23 V, sin embargo, el potencial de la célula en funcionamiento nunca presenta este valor. El alejamiento del comportamiento teórico se debe, principalmente, a tres tipos de pérdidas bien diferenciadas: Pérdidas de activación: El potencial teórico representa la tensión de equilibrio, para la que no se produce un intercambio neto de corriente. Por tanto, la diferencia de potencial entre el ánodo y el cátodo debe alejarse del valor teórico para obtener una corriente neta a través del circuito externo. Esta diferencia con el potencial teórico se denomina polarización de activación, y conlleva una pérdida de tensión en la célula. Así pues estas pérdidas tienen su origen en la cinética de la reacción electroquímica. Pérdidas óhmicas: Es una suma de las resistencias eléctricas en los elementos conductores, la resistencia en la membrana electrolítica a la conducción iónica y las resistencias de contacto. Pérdidas por concentración: Estas pérdidas se producen cuando los gases reactivos en el área activa son consumidos en un tiempo menor del necesario para ser repuestos. Este fenómeno es crítico a altas densidades de corriente, cuando los gases reactivos son consumidos con gran velocidad, por lo que el descenso de concentración de reactivos en los electrodos puede provocar una caída súbita de la tensión de la célula. La densidad de corriente para la cual se produce esta caída de potencial en unas condiciones determinadas se denomina densidad límite de corriente. Así pues, estas pérdidas tienen su origen en los límites de difusión de las especies reactivas a través de la célula. Además de la membrana electrolítica y el catalizador, en la célula de combustible podemos encontrar como principales componentes los platos bipolares, encargados de conectar la célula eléctricamente con el exterior y de introducir los gases reactivos a través de sus conductos; y las láminas difusivas, que conectan eléctricamente el catalizador con los platos bipolares y sirven para distribuir los gases reactivos de forma que lleguen a todo el área activa, y para evacuar el exceso de agua que se acumula en el área activa.La lámina difusiva, más conocida como GDL, será el argumento principal de nuestro estudio. Está conformada por un tejido de fibra de carbono macroporosa, que asegure el contacto eléctrico entre el catalizador y el plato bipolar, y es tratada con polímeros para proporcionarle propiedades hidrófobas que le ayuden en la evacuación de agua. La evacuación del agua es tan importante, especialmente en el cátodo, porque de lo contrario, la cantidad de agua generada por la reacción electroquímica, sumada a la humedad que portan los gases, puede provocar inundaciones en la zona activa del electrodo. Debido a las inundaciones, el agua obstruye los poros del GDL, dificultando la difusión de especies gaseosas y aumentando las pérdidas por concentración. Por otra parte, si demasiada agua se evacúa del electrodo, se puede producir un aumento de las pérdidas óhmicas, ya que la conductividad protónica de la membrana polimérica, es directamente proporcional a su nivel de humidificación. Con el fin de mejorar la gestión del agua de la célula de combustible, se ha añadido una capa microporosa denominada MPL al lado activo del GDL. Esta capa, constituida por una mezcla de negro de carbón con el polímero hidrófobo como aglutinante, otorga al GDL un mejor acabado superficial que reduce la resistencia de contacto con el electrodo, además la reducción del tamaño de las gotas de agua al pasar por el MPL mejora la difusión gaseosa por la disminución de obstrucciones en el GDL. Es importante tener cuidado en los tratamientos de hidrofobización de estos dos elementos, ya que, cantidades excesivas de polímero hidrófobo podrían reducir demasiado el tamaño de los poros, además de aumentar las pérdidas resistivas por su marcado carácter dieléctrico. Para el correcto análisis del funcionamiento de una célula de combustible, la herramienta fundamental es su caracterización eléctrica a partir de la curva de polarización. Esta curva representa la evolución del potencial de la célula respecto de la densidad de corriente, y su forma viene determinada principalmente por la contribución de las tres pérdidas mencionadas anteriormente. Junto con la curva de polarización, en ocasiones se presenta la curva de densidad de potencia, que se obtiene a partir de la misma. De forma complementaria a la curva de polarización, se puede realizar el estudio del circuito equivalente de la célula de combustible. Este consiste en un circuito eléctrico sencillo, que simula las caídas de potencial en la célula a través de elementos como resistencias y capacitancias. Estos elementos representas pérdidas y limitaciones en los procesos químicos y físicos en la célula. Para la obtención de este circuito equivalente, se realiza una espectroscopia de impedancia electroquímica (en adelante EIS), que consiste en la identificación de los diferentes elementos a partir de los espectros de impedancia, resultantes de introducir señales de corriente alternas sinusoidales de frecuencia variable en la célula y observar la respuesta en la tensión. En la siguiente imagen se puede observar un ejemplo de la identificación de los parámetros del circuito equivalente en un espectro de impedancia. Al final del trabajo, se han realizado dos aplicaciones prácticas para comprobar la influencia de las características hidrófobas y morfológicas de los medios difusores en la gestión del agua en el cátodo y, por tanto, en el resultado eléctrico de la célula; y como aplicación práctica de las técnicas de construcción y análisis de las curvas de polarización y potencia y de la espectroscopia de impedancia electroquímica. El primer estudio práctico ha consistido en comprobar los beneficios de la inclusión de un MPL al GDL. Para ello se han caracterizado células funcionando con GDL y GDM (GDL+MPL) tratados con dos tipos diferentes de polímeros, PTFE y PFPE. Además se han realizado las pruebas para diferentes condiciones de funcionamiento, a saber, temperaturas de 60 y 80°C y niveles de humidificación relativa de los gases reactivos de 80%-60% y 80%- 100% (A-C). Se ha comprobado con las curvas de polarización y potencia, cómo la inclusión de un MPL en el lado activo del GDL reporta una mejora del funcionamiento de trabajo en todas las condiciones estudiadas. Esta mejora se hace más patente para altas densidades de corriente, cuando la gestión del agua resulta más crítica, y a bajas temperaturas ya que un menor porcentaje del agua producida se encuentra en estado de vapor, produciéndose inundaciones con mayor facilidad. El segundo estudio realizado trata de la influencia del agente hidrofobizante utilizado en los GDMs. Se pretende comprobar si algún otro polímero de los estudiados, mejora las prestaciones del comúnmente utilizado PTFE. Para ello se han caracterizado células trabajando en diferentes condiciones de trabajo (análogas a las del primer estudio) con GDMs tratados con PTFE, PFPE, FEP y PFA. Tras el análisis de las curvas de polarización y potencia, se observa un gran comportamiento del FEP para todas las condiciones de trabajo, aumentando el potencial de la célula para cada densidad de corriente respecto al PTFE y retrasando la densidad de corriente límite. El PFPE también demuestra un gran aumento del potencial y la densidad de potencia de la célula, aunque presenta mayores problemas de difusión a altas densidades de corriente. Los resultados del PFA evidencian sus problemas en la gestión del agua a altas densidades de corriente, especialmente para altas temperaturas. El análisis de los espectros de impedancia obtenidos con la EIS confirma los resultados de las curvas de polarización y evidencian que la mejor alternativa al PTFE para el tratamiento del GDM es el FEP, que por sus mejores características hidrófobas reduce las pérdidas por concentración con una mejor gestión del agua en el cátodo.
Resumo:
Resumen: Este artículo se propone estudiar la vinculación entre matrimonio y bien común, a partir del debate en la Argentina de la ley 26.618 de legalización de las uniones homosexuales como matrimonio y de los lineamientos propuestos por Benedicto XVI en Caritas in Veritate. Se advierte una claudicación en la búsqueda del bien común que obedece a diferentes factores, sobre todo el relativismo cultural. Se propone una noción de bien común que respeta la dignidad de la persona y su dimensión social y se consideran las contribuciones del matrimonio al bien común. Se advierte cómo la ley 26.618 concede a las uniones de personas del mismo sexo beneficios propios del matrimonio entre varón y mujer sin que se cumplan las funciones sociales de esa institución. También se proponen algunas condiciones de la vida social que favorecen al matrimonio para que así contribuya al bien común, con especial referencia al ámbito de la legislación, las políticas públicas, los medios de comunicación, la empresa y el mundo del trabajo y la ciencia y la tecnología. Finalmente, se consideran los obstáculos que surgieron en el reciente debate legislativo por la aparición de un laicismo militante y la contribución de las religiones al bien común desde una sana laicidad en esta materia.
Resumo:
El objetivo inmediato del presente trabajo, es conocer los motivos y los factores que intervienen en el desaparecimiento de las zonas arboladas en los alrededores de Managua; puesto que a esto se deben las inundaciones periódicas de algunos sectores de la ciudad. Como complemento de tal reconocimiento se dan algunas recomendaciones. El estudio se concreto a la Cuenca Hidrográfica de Ticuantepe y se desarrolla un bosquejo para su ordenación. Para proceder al análisis y a la ordenación, se divide a la cuenca en dos zonas: la cuenca de recepción y la planicie. También se pone atención a la corrección del torrente que recoge las aguas que proceden de toda la zona de recepción. Tanto a la cuenca de recepción como a la planicie, se las divide en sectores, a cada uno de los cuales se les valora de acuerdo a su posible rendimiento hidrológico; tomando en cuenta para ello los siguientes aspectos: el relieve del terreno, la capacidad de infiltración del suelo, el recubrimiento vegetal y el acopio superficial. Se pone especial atención en averiguar el papel que desempeña la extensión de las explotaciones, la forma de tenencia de la tierra y el uso a la que esta esta sometida, en relación a la conservación del suelo y del agua. En cuanto al torrente, se llego a la conclusión de que el lecho de deyección se halla en su segunda fase de formación y que por tanto, los poblados situados en sus proximidades están seguros hasta tanto dure esta situación; pero se hacen recomendaciones para la corrección de la garganta. Se calcula la escorrentía en los suelos de la planicie, tomando en cuenta las máximas intensidades de lluvia que se han registrado en un periodo de 8 años (1957-1965), y se aconsejan algunas medidas para evitar los daños que ocasiona el agua de escorrentía bajo tales condiciones extremas de precipitación, que pueden ocurrir una vez en el lapso mencionado. A continuación se establecen los motivos por los cuales es necesaria la ordenación de la cuenca de recepción y la secuencia en la cual debe procederse, así como también, los aspectos que deben tomarse en cuenta. En lo referente a la ordenación de la planicie, igualmente se establece un orden de tratamiento, basándose en el relieve y la capacidad de infiltración del suelo. Se pone especial interés en los problemas para la conservación del suelo, originados en la forma de tenencia de la tierra y en la existencia de un gran porcentaje de extensiones pequeñas: sugiriéndose a continuación algunas soluciones. El objetivo ultimo de este estudio es establecer algunos puntos que debería comprender una Ley de conservación del suelo. Esto se consigue al sacar las consecuencias de este trabajo, que se pueden generalizar para cualquier lugar de Nicaragua.
Resumo:
[ES] Son muy diversos los sectores en los que ejercen su actividad las sociedades cooperativas. La sociedad cooperativa de viviendas es una clase específica de dentro de las de consumidores, regulada como una «clase» diferenciada en las leyes, que presenta particularidades que es preciso conocer. Constituyen entidades con un lugar propio dentro del sector inmobiliario con una nada despreciable contribución a la promoción de vivienda. En el País Vasco son en cuantía las más importantes después de las de trabajo asociado. La sociedad cooperativa de viviendas se caracteriza como empresa de participación dentro del sector inmobiliario, en la medida que son los propios usuarios de las viviendas los responsables de la toma de decisiones en la promoción inmobiliaria.
Resumo:
421 p.
Resumo:
La cooperación internacional para el desarrollo es una herramienta de gran importancia en el actual contexto internacional. Desde su aparición, la Ayuda Oficial al Desarrollo ha sido la modalidad más recurrente y la más ampliamente estudiada. No obstante, las transformaciones de las últimas décadas han llevado al surgimiento de nuevas modalidades, las cuales toman cada vez más fuerza y requieren de una especial atención. Es el caso de la cooperación descentralizada, instrumento de ayuda exterior y de visibilización internacional de las entidades territoriales. A manera de aproximación a este mecanismo de cooperación, se estudiará la contribución del País Vasco al desarrollo humano sostenible de la comunidad indígena Emberá Chamí y al fortalecimiento de la acción exterior de esta comunidad autónoma española a partir de sus iniciativas de cooperación internacional descentralizada.
Resumo:
En el presente trabajo se analiza la obligación de investigar graves violaciones de Derechos Humanos y Derecho Internacional Humanitario, a la luz de la sentencia de la Corte Constitucional Colombiana referente a la constitucionalidad del Marco Jurídico para la paz. De la aparente remisión que hace la Corte Constitucional a la Corte Interamericana de Derechos Humanos sobre el deber de investigar graves violaciones de Derechos Humanos y de Derecho Internacional Humanitario se concluye que la Corte Constitucional propone como premisa mayor una obligación que surge de una interpretación extensiva de la Convención Interamericana. De la misma forma, se estudia el tratamiento indebido del derecho aplicable a las amnistías e indultos, que se relaciona con la necesidad de evitar cualquier tipo de impunidad, cuyo concepto sirve para esclarecer cuáles son los estándares que se quiere proteger. Por último, se analiza el contexto al que se pretende aplicar dicha obligación, es decir, la justicia transicional, proponiendo un modelo interpretativo de los fines de la pena, y su aplicación por medio de la favorabilidad penal, para la justicia transicional, que sea acorde a la interpretación de la Convención Interamericana.
Resumo:
Esta monografía pretende evaluar los efectos de la tradición exportadora minera y el TLC entre China y Chile desde las perspectivas de violencia estructural y desarrollo como libertad de Amartya Sen y Johan Galtung, respectivamente. A través del análisis de algunos procesos históricos que han configurado las actuales dinámicas mineras y comerciales en Chile, y de las libertades reales que poseían los chilenos antes y después de la entrada en vigor del acuerdo, se logra comprender la manera en la que los fenómenos estudiados logran constreñir o impulsar el desarrollo de las capacidades de los chilenos para llevar a cabo las vidas que desean.
Resumo:
Resumen tomado de la publicación