186 resultados para Digitization


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes the procedures used to create a distributed collection of topographic maps of the Austro-Hungarian Empire, the Spezialkarte der Öesterriechisch-ungarnischen Monarchie, Masse. 1:75,000 der natur. This set of maps was published in Vienna over a period of years from 1877 to 1914. The part of the set used in this project includes 776 sheets; all sheets from all editions number over 3,665. The paper contains detailed information on how the maps were converted to digital images, how metadata were prepared, and how Web-browser access was created using ArcIMS Metadata Server. The project, funded by a 2004 National Leadership Grant from the Institute for Museums and Library Science (IMLS), was a joint project of the Homer Babbidge Library Map and Geographic Information Center at the University of Connecticut, the New York Public Library, and the American Geographical Society’s Map Library at the University of Wisconsin Milwaukee.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Purpose – The purpose of this paper is to describe the tools and strategies that were employed by C/W MARS to successfully develop and implement the Digital Treasures digital repository. Design/methodology/approach – This paper outlines the planning and subsequent technical issues that arise when implementing a digitization project on the scale of the large, multi-type, automated library network. Workflow solutions addressed include synchronous online metadata record submissions from multiple library sources and the delivery of collection-level use statistics to participating library administrators. The importance of standards-based descriptive metadata and the role of project collaboration are also discussed. Findings – From the time of its initial planning, the Digital Treasures repository was fully implemented in six months. The discernable and statistically quantified online discovery and access of actual digital objects greatly assisted libraries unsure of their own staffing costs/benefits to join the repository. Originality/value – This case study may serve as a possible example of initial planning, workflow and final implementation strategies for new repositories in both the general and library consortium environment. Keywords – Digital repositories, Library networks, Data management. Paper type – Case study

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The association between increases in cerebral glucose metabolism and the development of acidosis is largely inferential, based on reports linking hyperglycemia with poor neurological outcome, lactate accumulation, and the severity of acidosis. We measured local cerebral metabolic rate for glucose (lCMRglc) and an index of brain pH--the acid-base index (ABI)--concurrently and characterized their interaction in a model of focal cerebral ischemia in rats in a double-label autoradiographic study, using ($\sp{14}$C) 2-deoxyglucose and ($\sp{14}$C) dimethyloxazolidinedione. Computer-assisted digitization and analysis permitted the simultaneous quantification of the two variables on a pixel-by-pixel basis in the same brain slices. Hemispheres ipsilateral to tamponade-induced middle cerebral occlusion showed areas of normal, depressed and elevated glucose metabolic rate (as defined by an interhemispheric asymmetry index) after two hours of ischemia. Regions of normal glucose metabolic rate showed normal ABI (pH $\pm$ SD = 6.97 $\pm$ 0.09), regions of depressed lCMRglc showed severe acidosis (6.69 $\pm$ 0.14), and regions of elevated lCMRglc showed moderate acidosis (6.88 $\pm$ 0.10), all significantly different at the.00125 level as shown by analysis of variance. Moderate acidosis in regions of increased lCMRglc suggests that anaerobic glycolysis causes excess protons to be generated by the uncoupling of ATP synthesis and hydrolysis. ^

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents the Project of Cleaning, Classification, Organization and Digitization of the documentary collection of the Historical and Geographical Institute of Pelotas History Course developed by the Federal University of Pelotas in Historical and Geographical Institute of Pelotas - IHGPEL. The work described here began in 2011. Since then, the joint activities between the two institutions were diverse

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo analiza como la región está inserta en un proceso de internacionalización, pero ella es de dimensiones muy reducida, lo cual redunda negativamente en el mejoramiento de la calidad. La educación transfronteriza es una de las cuatro modalidades a través de las cuales se desarrolla la educación internacional. El artículo analiza las manifestaciones de esta dimensión de la internacionalización y constata la existencia de un conjunto más amplio de bienes y servicios asociados que están siendo sometidos a complejos y diversos procesos de internacionalización. A partir de allí se sostiene la hipótesis de una nueva dimensión en el intercambio internacional educativo referido a servicios de apoyo. Ello está siendo impulsado tanto por la digitalización de la enseñanza, como por la creciente terciarización de la gestión universitaria en un creciente contexto global y competitivo, lo cual muestra a su vez una más amplia articulación entre la virtualización educativa y la internacionalización de los procesos de enseñanza y aprendizaje

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents the Project of Cleaning, Classification, Organization and Digitization of the documentary collection of the Historical and Geographical Institute of Pelotas History Course developed by the Federal University of Pelotas in Historical and Geographical Institute of Pelotas - IHGPEL. The work described here began in 2011. Since then, the joint activities between the two institutions were diverse

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo analiza como la región está inserta en un proceso de internacionalización, pero ella es de dimensiones muy reducida, lo cual redunda negativamente en el mejoramiento de la calidad. La educación transfronteriza es una de las cuatro modalidades a través de las cuales se desarrolla la educación internacional. El artículo analiza las manifestaciones de esta dimensión de la internacionalización y constata la existencia de un conjunto más amplio de bienes y servicios asociados que están siendo sometidos a complejos y diversos procesos de internacionalización. A partir de allí se sostiene la hipótesis de una nueva dimensión en el intercambio internacional educativo referido a servicios de apoyo. Ello está siendo impulsado tanto por la digitalización de la enseñanza, como por la creciente terciarización de la gestión universitaria en un creciente contexto global y competitivo, lo cual muestra a su vez una más amplia articulación entre la virtualización educativa y la internacionalización de los procesos de enseñanza y aprendizaje

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El artículo analiza como la región está inserta en un proceso de internacionalización, pero ella es de dimensiones muy reducida, lo cual redunda negativamente en el mejoramiento de la calidad. La educación transfronteriza es una de las cuatro modalidades a través de las cuales se desarrolla la educación internacional. El artículo analiza las manifestaciones de esta dimensión de la internacionalización y constata la existencia de un conjunto más amplio de bienes y servicios asociados que están siendo sometidos a complejos y diversos procesos de internacionalización. A partir de allí se sostiene la hipótesis de una nueva dimensión en el intercambio internacional educativo referido a servicios de apoyo. Ello está siendo impulsado tanto por la digitalización de la enseñanza, como por la creciente terciarización de la gestión universitaria en un creciente contexto global y competitivo, lo cual muestra a su vez una más amplia articulación entre la virtualización educativa y la internacionalización de los procesos de enseñanza y aprendizaje

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents the Project of Cleaning, Classification, Organization and Digitization of the documentary collection of the Historical and Geographical Institute of Pelotas History Course developed by the Federal University of Pelotas in Historical and Geographical Institute of Pelotas - IHGPEL. The work described here began in 2011. Since then, the joint activities between the two institutions were diverse

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Current nanometer technologies are subjected to several adverse effects that seriously impact the yield and performance of integrated circuits. Such is the case of within-die parameters uncertainties, varying workload conditions, aging, temperature, etc. Monitoring, calibration and dynamic adaptation have appeared as promising solutions to these issues and many kinds of monitors have been presented recently. In this scenario, where systems with hundreds of monitors of different types have been proposed, the need for light-weight monitoring networks has become essential. In this work we present a light-weight network architecture based on digitization resource sharing of nodes that require a time-to-digital conversion. Our proposal employs a single wire interface, shared among all the nodes in the network, and quantizes the time domain to perform the access multiplexing and transmit the information. It supposes a 16% improvement in area and power consumption compared to traditional approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet fue sólo el principio de los grandes cambios. Desde la invención de la imprenta no ha habido un cambio tecnológico con tantas repercusiones como el de la era de la digitalización. Más aún, con la aparición de los primeros terminales móviles que confirmaron la nueva revolución en esta etapa. Este proyecto se centra en el caso europeo. Para ello, se realiza un análisis que, en primer lugar, abordará el tema económico, en el que se explicarán los factores que han influido positiva y negativamente, tales como: el capitalismo, la globalización, la crisis financiera... Después, se expondrá la cuestión política, haciendo referencia al marco legal europeo, los proyectos y las relaciones internacionales. Otros de los aspectos a tratar (y no menos importantes) serán los relacionados con el desarrollo cultural, el movimiento social y los impactos medioambientales. Finalmente se expondrán los distintos tipos de tecnología a los que han dado lugar estos cambios, y cómo han ido evolucionando a lo largo del tiempo, hasta la aparición de nuevas formas de comunicación. Una vez estudiadas las distintas disciplinas, se podrá “diseñar” una posible perspectiva hacia la que se dirigen las redes móviles e Internet en Europa. En definitiva, conocer de dónde venimos, qué es lo que hacemos y hacia dónde nos dirigimos. Internet was only the beginning of great changes. Since the invention of the printing press there has been such an important technological change as the age of digitization. Moreover, with the appearance of the first mobile terminal which confirmed the new revolution at this stage. This project concentrates on the European case. To do this, an analysis is performed that, in the first place board the economic issue, which will explain the factors that have influenced positively and negatively, such as capitalism, globalization, financial crisis... Then the political question will be discussed, referring to the European legal framework, projects and international relations. Other aspects to be treated (and no less important) are those related to the cultural, social movement and environmental impacts. Finally we will present the different types of technology to which these changes have led, and how they have evolved through time, until the emergence of new forms of communication. After studying the different disciplines, you can "design" a possible perspective towards that target mobile networks and Internet in Europe. In short, knowing where we came from, what we do and where we are going.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

At the present time almost all map libraries on the Internet are image collections generated by the digitization of early maps. This type of graphics files provides researchers with the possibility of accessing and visualizing historical cartographic information keeping in mind that this information has a degree of quality that depends upon elements such as the accuracy of the digitization process and proprietary constraints (e.g. visualization, resolution downloading options, copyright, use constraints). In most cases, access to these map libraries is useful only as a first approach and it is not possible to use those maps for scientific work due to the sparse tools available to measure, match, analyze and/or combine those resources with different kinds of cartography. This paper presents a method to enrich virtual map rooms and provide historians and other professional with a tool that let them to make the most of libraries in the digital era.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tecnología ha cambiado el mundo, pero las consecuencias de estos cambios en la sociedad no siempre se han pronosticado bien. Las Tecnologías de la Información transformaron el método de producción industrial. La nueva industria produce ideas y conceptos, no objetos. Este cambio ha dado como resultado una sociedad dualizada, ha desaparecido gran parte de la clase media y han aumentado las diferencias entre la clase alta y la baja. Las exigencias educativas de los nuevos puestos de trabajo innovadores son superiores a los de la industria tradicional, pero inferiores en los puestos de trabajo de producción. Además, el número de puestos de trabajo disponibles de este tipo es menor que en la industria tradicional, se necesita menos mano de obra, los procesos se pueden automatizar, las tareas mecánicas se aprenden en poco tiempo y son trabajos temporales, cuyo número dependerá de la demanda global. Para que el proceso de innovación funcione, las empresas se reúnen en las zonas financieras de grandes ciudades, como Nueva York o Londres, que fueron las primeras con acceso a las redes de telecomunicación. De esta manera se producen sinergias que contribuyen a mejorar el proceso innovador global. Estas ideas y conceptos que cambian el mundo necesitan de este entorno de producción, que no puede ser replicado, y son tan importantes que su acceso está restringido para la mayor parte del mundo por distintos mecanismos de control. El despliegue de las redes de telecomunicaciones inalámbricas ha sido enorme en los últimos años. El cliente busca llamar desde cualquier lugar y llevar un acceso a Internet en teléfono móvil. Para conseguirlo, las operadoras de telefonía móvil necesitan poner antenas de telefonía móvil en las ciudades, pero la instalación cerca de edificios no está siendo fácil. Pocos quieren tener una antena cerca por los problemas de salud de las personas que padecen los que ya viven o trabajan cerca de una. Los efectos del electromagnetismo en los seres humanos no están claros y provocan desconfianza hacia las antenas. La digitalización de los contenidos, que ha sido necesaria para transmitir contenido en Internet, permite que cualquier persona con un ordenador y una conexión a Internet pueda publicar un disco, una película o un libro. Pero esa persona también puede copiar los originales y enviarlos a cualquier lugar del mundo sin el permiso del autor. Con el fin de controlar la copia no autorizada, los derechos de autor se están usando para cambiar leyes e incluir sistemas de censura en Internet. Estos sistemas permiten a los autores eliminar el contenido ilegal, pero también pueden ser usados para censurar cualquier tipo de información. El control de la información es poder y usarlo de una manera o de otra afecta a todo el planeta. El problema no es la tecnología, que es solo una herramienta, es la forma que tienen los gobiernos y las grandes empresas de usarlo. Technology has changed the world, but the consequences of these changes in society have not always been well predicted. The Information Technology transformed the industrial production method. The new industry produces ideas and concepts, not objects. This change has resulted in a society dualized, most of the middle class has disappeared and the differences between high and low class have increased. The educational requirements of new innovative jobs are higher than the ones of the traditional industry, but lower in production jobs. Moreover, the number of available jobs of this type is lower than in the traditional industry, it takes less manpower, processes can be automated, mechanical tasks are learned in a short time and jobs are temporary, whose number depends on global demand. For the innovation process works, companies meet in the business districts of large cities, like New York or London, which were the first with access to telecommunications networks. This will produce synergies that improve the overall innovation process. These ideas and concepts that change the world need this production environment, which cannot be replicated, and are so important that their access is restricted to most of the world by different control mechanisms. The deploy of wireless telecommunications networks has been enormous in recent years. The client seeks to call from anywhere and to bring Internet access in his mobile phone. To achieve this, mobile operators need to put cell towers in cities, but the installation near buildings is not being easy. Just a few want to have an antenna closely because of the health problems suffered by people who already live or work near one. The effects of electromagnetism in humans are unclear and cause distrust of antennas. The digitization of content, which has been necessary to transmit Internet content, allows anyone with a computer and an Internet connection to be able to publish an album, a movie or a book. But that person can also copy the originals and send them anywhere in the world without the author's permission. In order to control the unauthorized copying, copyright is being used to change laws and include Internet censorship systems. These systems allow authors to eliminate illegal content, but may also be used to censor any information. The control of knowledge is power and using it in one way or another affects the whole planet. The problem is not technology, which is just a tool, but the way that governments and large corporations use it.