212 resultados para Malicious mischief.
Resumo:
It is our goal within this project to develop a powerful electronic system capable to claim, with high certainty, that a malicious software is running (or not) along with the workstations’ normal activity. The new product will be based on measurement of the supply current taken by a workstation from the grid. Unique technique is proposed within these proceedings that analyses the supply current to produce information about the state of the workstation and to generate information of the presence of malicious software running along with the rightful applications. The testing is based on comparison of the behavior of a fault-free workstation (established i advance) and the behavior of the potentially faulty device.
Resumo:
El auge del "Internet de las Cosas" (IoT, "Internet of Things") y sus tecnologías asociadas han permitido su aplicación en diversos dominios de la aplicación, entre los que se encuentran la monitorización de ecosistemas forestales, la gestión de catástrofes y emergencias, la domótica, la automatización industrial, los servicios para ciudades inteligentes, la eficiencia energética de edificios, la detección de intrusos, la gestión de desastres y emergencias o la monitorización de señales corporales, entre muchas otras. La desventaja de una red IoT es que una vez desplegada, ésta queda desatendida, es decir queda sujeta, entre otras cosas, a condiciones climáticas cambiantes y expuestas a catástrofes naturales, fallos de software o hardware, o ataques maliciosos de terceros, por lo que se puede considerar que dichas redes son propensas a fallos. El principal requisito de los nodos constituyentes de una red IoT es que estos deben ser capaces de seguir funcionando a pesar de sufrir errores en el propio sistema. La capacidad de la red para recuperarse ante fallos internos y externos inesperados es lo que se conoce actualmente como "Resiliencia" de la red. Por tanto, a la hora de diseñar y desplegar aplicaciones o servicios para IoT, se espera que la red sea tolerante a fallos, que sea auto-configurable, auto-adaptable, auto-optimizable con respecto a nuevas condiciones que puedan aparecer durante su ejecución. Esto lleva al análisis de un problema fundamental en el estudio de las redes IoT, el problema de la "Conectividad". Se dice que una red está conectada si todo par de nodos en la red son capaces de encontrar al menos un camino de comunicación entre ambos. Sin embargo, la red puede desconectarse debido a varias razones, como que se agote la batería, que un nodo sea destruido, etc. Por tanto, se hace necesario gestionar la resiliencia de la red con el objeto de mantener la conectividad entre sus nodos, de tal manera que cada nodo IoT sea capaz de proveer servicios continuos, a otros nodos, a otras redes o, a otros servicios y aplicaciones. En este contexto, el objetivo principal de esta tesis doctoral se centra en el estudio del problema de conectividad IoT, más concretamente en el desarrollo de modelos para el análisis y gestión de la Resiliencia, llevado a la práctica a través de las redes WSN, con el fin de mejorar la capacidad la tolerancia a fallos de los nodos que componen la red. Este reto se aborda teniendo en cuenta dos enfoques distintos, por una parte, a diferencia de otro tipo de redes de dispositivos convencionales, los nodos en una red IoT son propensos a perder la conexión, debido a que se despliegan en entornos aislados, o en entornos con condiciones extremas; por otra parte, los nodos suelen ser recursos con bajas capacidades en términos de procesamiento, almacenamiento y batería, entre otros, por lo que requiere que el diseño de la gestión de su resiliencia sea ligero, distribuido y energéticamente eficiente. En este sentido, esta tesis desarrolla técnicas auto-adaptativas que permiten a una red IoT, desde la perspectiva del control de su topología, ser resiliente ante fallos en sus nodos. Para ello, se utilizan técnicas basadas en lógica difusa y técnicas de control proporcional, integral y derivativa (PID - "proportional-integral-derivative"), con el objeto de mejorar la conectividad de la red, teniendo en cuenta que el consumo de energía debe preservarse tanto como sea posible. De igual manera, se ha tenido en cuenta que el algoritmo de control debe ser distribuido debido a que, en general, los enfoques centralizados no suelen ser factibles a despliegues a gran escala. El presente trabajo de tesis implica varios retos que conciernen a la conectividad de red, entre los que se incluyen: la creación y el análisis de modelos matemáticos que describan la red, una propuesta de sistema de control auto-adaptativo en respuesta a fallos en los nodos, la optimización de los parámetros del sistema de control, la validación mediante una implementación siguiendo un enfoque de ingeniería del software y finalmente la evaluación en una aplicación real. Atendiendo a los retos anteriormente mencionados, el presente trabajo justifica, mediante una análisis matemático, la relación existente entre el "grado de un nodo" (definido como el número de nodos en la vecindad del nodo en cuestión) y la conectividad de la red, y prueba la eficacia de varios tipos de controladores que permiten ajustar la potencia de trasmisión de los nodos de red en respuesta a eventuales fallos, teniendo en cuenta el consumo de energía como parte de los objetivos de control. Así mismo, este trabajo realiza una evaluación y comparación con otros algoritmos representativos; en donde se demuestra que el enfoque desarrollado es más tolerante a fallos aleatorios en los nodos de la red, así como en su eficiencia energética. Adicionalmente, el uso de algoritmos bioinspirados ha permitido la optimización de los parámetros de control de redes dinámicas de gran tamaño. Con respecto a la implementación en un sistema real, se han integrado las propuestas de esta tesis en un modelo de programación OSGi ("Open Services Gateway Initiative") con el objeto de crear un middleware auto-adaptativo que mejore la gestión de la resiliencia, especialmente la reconfiguración en tiempo de ejecución de componentes software cuando se ha producido un fallo. Como conclusión, los resultados de esta tesis doctoral contribuyen a la investigación teórica y, a la aplicación práctica del control resiliente de la topología en redes distribuidas de gran tamaño. Los diseños y algoritmos presentados pueden ser vistos como una prueba novedosa de algunas técnicas para la próxima era de IoT. A continuación, se enuncian de forma resumida las principales contribuciones de esta tesis: (1) Se han analizado matemáticamente propiedades relacionadas con la conectividad de la red. Se estudia, por ejemplo, cómo varía la probabilidad de conexión de la red al modificar el alcance de comunicación de los nodos, así como cuál es el mínimo número de nodos que hay que añadir al sistema desconectado para su re-conexión. (2) Se han propuesto sistemas de control basados en lógica difusa para alcanzar el grado de los nodos deseado, manteniendo la conectividad completa de la red. Se han evaluado diferentes tipos de controladores basados en lógica difusa mediante simulaciones, y los resultados se han comparado con otros algoritmos representativos. (3) Se ha investigado más a fondo, dando un enfoque más simple y aplicable, el sistema de control de doble bucle, y sus parámetros de control se han optimizado empleando algoritmos heurísticos como el método de la entropía cruzada (CE, "Cross Entropy"), la optimización por enjambre de partículas (PSO, "Particle Swarm Optimization"), y la evolución diferencial (DE, "Differential Evolution"). (4) Se han evaluado mediante simulación, la mayoría de los diseños aquí presentados; además, parte de los trabajos se han implementado y validado en una aplicación real combinando técnicas de software auto-adaptativo, como por ejemplo las de una arquitectura orientada a servicios (SOA, "Service-Oriented Architecture"). ABSTRACT The advent of the Internet of Things (IoT) enables a tremendous number of applications, such as forest monitoring, disaster management, home automation, factory automation, smart city, etc. However, various kinds of unexpected disturbances may cause node failure in the IoT, for example battery depletion, software/hardware malfunction issues and malicious attacks. So, it can be considered that the IoT is prone to failure. The ability of the network to recover from unexpected internal and external failures is known as "resilience" of the network. Resilience usually serves as an important non-functional requirement when designing IoT, which can further be broken down into "self-*" properties, such as self-adaptive, self-healing, self-configuring, self-optimization, etc. One of the consequences that node failure brings to the IoT is that some nodes may be disconnected from others, such that they are not capable of providing continuous services for other nodes, networks, and applications. In this sense, the main objective of this dissertation focuses on the IoT connectivity problem. A network is regarded as connected if any pair of different nodes can communicate with each other either directly or via a limited number of intermediate nodes. More specifically, this thesis focuses on the development of models for analysis and management of resilience, implemented through the Wireless Sensor Networks (WSNs), which is a challenging task. On the one hand, unlike other conventional network devices, nodes in the IoT are more likely to be disconnected from each other due to their deployment in a hostile or isolated environment. On the other hand, nodes are resource-constrained in terms of limited processing capability, storage and battery capacity, which requires that the design of the resilience management for IoT has to be lightweight, distributed and energy-efficient. In this context, the thesis presents self-adaptive techniques for IoT, with the aim of making the IoT resilient against node failures from the network topology control point of view. The fuzzy-logic and proportional-integral-derivative (PID) control techniques are leveraged to improve the network connectivity of the IoT in response to node failures, meanwhile taking into consideration that energy consumption must be preserved as much as possible. The control algorithm itself is designed to be distributed, because the centralized approaches are usually not feasible in large scale IoT deployments. The thesis involves various aspects concerning network connectivity, including: creation and analysis of mathematical models describing the network, proposing self-adaptive control systems in response to node failures, control system parameter optimization, implementation using the software engineering approach, and evaluation in a real application. This thesis also justifies the relations between the "node degree" (the number of neighbor(s) of a node) and network connectivity through mathematic analysis, and proves the effectiveness of various types of controllers that can adjust power transmission of the IoT nodes in response to node failures. The controllers also take into consideration the energy consumption as part of the control goals. The evaluation is performed and comparison is made with other representative algorithms. The simulation results show that the proposals in this thesis can tolerate more random node failures and save more energy when compared with those representative algorithms. Additionally, the simulations demonstrate that the use of the bio-inspired algorithms allows optimizing the parameters of the controller. With respect to the implementation in a real system, the programming model called OSGi (Open Service Gateway Initiative) is integrated with the proposals in order to create a self-adaptive middleware, especially reconfiguring the software components at runtime when failures occur. The outcomes of this thesis contribute to theoretic research and practical applications of resilient topology control for large and distributed networks. The presented controller designs and optimization algorithms can be viewed as novel trials of the control and optimization techniques for the coming era of the IoT. The contributions of this thesis can be summarized as follows: (1) Mathematically, the fault-tolerant probability of a large-scale stochastic network is analyzed. It is studied how the probability of network connectivity depends on the communication range of the nodes, and what is the minimum number of neighbors to be added for network re-connection. (2) A fuzzy-logic control system is proposed, which obtains the desired node degree and in turn maintains the network connectivity when it is subject to node failures. There are different types of fuzzy-logic controllers evaluated by simulations, and the results demonstrate the improvement of fault-tolerant capability as compared to some other representative algorithms. (3) A simpler but more applicable approach, the two-loop control system is further investigated, and its control parameters are optimized by using some heuristic algorithms such as Cross Entropy (CE), Particle Swarm Optimization (PSO), and Differential Evolution (DE). (4) Most of the designs are evaluated by means of simulations, but part of the proposals are implemented and tested in a real-world application by combining the self-adaptive software technique and the control algorithms which are presented in this thesis.
Resumo:
Los sistemas microinformáticos se componen principalmente de hardware y software, con el paso del tiempo el hardware se degrada, se deteriora y en ocasiones se avería. El software evoluciona, requiere un mantenimiento, de actualización y en ocasiones falla teniendo que ser reparado o reinstalado. A nivel hardware se analizan los principales componentes que integran y que son comunes en gran parte estos sistemas, tanto en equipos de sobre mesa como portátiles, independientes del sistema operativo, además de los principales periféricos, también se analizan y recomiendan algunas herramientas necesarias para realizar el montaje, mantenimiento y reparación de estos equipos. Los principales componentes hardware internos son la placa base, memoria RAM, procesador, disco duro, carcasa, fuente de alimentación y tarjeta gráfica. Los periféricos más destacados son el monitor, teclado, ratón, impresora y escáner. Se ha incluido un apartado donde se detallan los distintos tipos de BIOS y los principales parámetros de configuración. Para todos estos componentes, tanto internos como periféricos, se ha realizado un análisis de las características que ofrecen y los detalles en los que se debe prestar especial atención en el momento de seleccionar uno frente a otro. En los casos que existen diferentes tecnologías se ha hecho una comparativa entre ambas, destacando las ventajas y los inconvenientes de unas frente a otras para que sea el usuario final quien decida cual se ajusta mejor a sus necesidades en función de las prestaciones y el coste. Un ejemplo son las impresoras de inyección de tinta frente a las laser o los discos duros mecánicos en comparación con y los discos de estado sólido (SSD). Todos estos componentes están relacionados, interconectados y dependen unos de otros, se ha dedicado un capítulo exclusivamente para estudiar cómo se ensamblan estos componentes, resaltando los principales fallos que se suelen cometer o producir y se han indicado unas serie tareas de mantenimiento preventivo que se pueden realizar para prolongar la vida útil del equipo y evitar averías por mal uso. Los mantenimientos se pueden clasificar como predictivo, perfectivo, adaptativo, preventivo y correctivo. Se ha puesto el foco principalmente en dos tipos de mantenimiento, el preventivo descrito anteriormente y en el correctivo, tanto software como hardware. El mantenimiento correctivo está enfocado al análisis, localización, diagnóstico y reparación de fallos y averías hardware y software. Se describen los principales fallos que se producen en cada componente, cómo se manifiestan o qué síntomas presentan para poder realizar pruebas específicas que diagnostiquen y acoten el fallo. En los casos que es posible la reparación se detallan las instrucciones a seguir, en otro caso se recomienda la sustitución de la pieza o componente. Se ha incluido un apartado dedicado a la virtualización, una tecnología en auge que resulta muy útil para realizar pruebas de software, reduciendo tiempos y costes en las pruebas. Otro aspecto interesante de la virtualización es que se utiliza para montar diferentes servidores virtuales sobre un único servidor físico, lo cual representa un importante ahorro en hardware y costes de mantenimiento, como por ejemplo el consumo eléctrico. A nivel software se realiza un estudio detallado de los principales problemas de seguridad y vulnerabilidades a los que está expuesto un sistema microinformático enumerando y describiendo el comportamiento de los distintos tipos de elementos maliciosos que pueden infectar un equipo, las precauciones que se deben tomar para minimizar los riesgos y las utilidades que se pueden ejecutar para prevenir o limpiar un equipo en caso de infección. Los mantenimientos y asistencias técnicas, en especial las de tipo software, no siempre precisan de la atención presencial de un técnico cualificado, por ello se ha dedicado un capítulo a las herramientas de asistencia remota que se pueden utilizar en este ámbito. Se describen algunas de las más populares y utilizadas en el mercado, su funcionamiento, características y requerimientos. De esta forma el usuario puede ser atendido de una forma rápida, minimizando los tiempos de respuesta y reduciendo los costes. ABSTRACT Microcomputer systems are basically made up of pieces of hardware and software, as time pass, there’s a degradation of the hardware pieces and sometimes failures of them. The software evolves, new versions appears and requires maintenance, upgrades and sometimes also fails having to be repaired or reinstalled. The most important hardware components in a microcomputer system are analyzed in this document for a laptop or a desktop, with independency of the operating system they run. In addition to this, the main peripherals and devices are also analyzed and a recommendation about the most proper tools necessary for maintenance and repair this kind of equipment is given as well. The main internal hardware components are: motherboard, RAM memory, microprocessor, hard drive, housing box, power supply and graphics card. The most important peripherals are: monitor, keyboard, mouse, printer and scanner. A section has been also included where different types of BIOS and main settings are listed with the basic setup parameters in each case. For all these internal components and peripherals, an analysis of their features has been done. Also an indication of the details in which special attention must be payed when choosing more than one at the same time is given. In those cases where different technologies are available, a comparison among them has been done, highlighting the advantages and disadvantages of selecting one or another to guide the end user to decide which one best fits his needs in terms of performance and costs. As an example, the inkjet vs the laser printers technologies has been faced, or also the mechanical hard disks vs the new solid state drives (SSD). All these components are interconnected and are dependent one to each other, a special chapter has been included in order to study how they must be assembled, emphasizing the most often mistakes and faults that can appear during that process, indicating different tasks that can be done as preventive maintenance to enlarge the life of the equipment and to prevent damage because of a wrong use. The different maintenances can be classified as: predictive, perfective, adaptive, preventive and corrective. The main focus is on the preventive maintains, described above, and in the corrective one, in software and hardware. Corrective maintenance is focused on the analysis, localization, diagnosis and repair of hardware and software failures and breakdowns. The most typical failures that can occur are described, also how they can be detected or the specific symptoms of each one in order to apply different technics or specific tests to diagnose and delimit the failure. In those cases where the reparation is possible, instructions to do so are given, otherwise, the replacement of the component is recommended. A complete section about virtualization has also been included. Virtualization is a state of the art technology that is very useful especially for testing software purposes, reducing time and costs during the tests. Another interesting aspect of virtualization is the possibility to have different virtual servers on a single physical server, which represents a significant savings in hardware inversion and maintenance costs, such as electricity consumption. In the software area, a detailed study has been done about security problems and vulnerabilities a microcomputer system is exposed, listing and describing the behavior of different types of malicious elements that can infect a computer, the precautions to be taken to minimize the risks and the tools that can be used to prevent or clean a computer system in case of infection. The software maintenance and technical assistance not always requires the physical presence of a qualified technician to solve the possible problems, that’s why a complete chapter about the remote support tools that can be used to do so has been also included. Some of the most popular ones used in the market are described with their characteristics and requirements. Using this kind of technology, final users can be served quickly, minimizing response times and reducing costs.
Resumo:
Wireless sensor networks (WSNs) may be deployed in failure-prone environments, and WSNs nodes easily fail due to unreliable wireless connections, malicious attacks and resource-constrained features. Nevertheless, if WSNs can tolerate at most losing k − 1 nodes while the rest of nodes remain connected, the network is called k − connected. k is one of the most important indicators for WSNs’ self-healing capability. Following a WSN design flow, this paper surveys resilience issues from the topology control and multi-path routing point of view. This paper provides a discussion on transmission and failure models, which have an important impact on research results. Afterwards, this paper reviews theoretical results and representative topology control approaches to guarantee WSNs to be k − connected at three different network deployment stages: pre-deployment, post-deployment and re-deployment. Multi-path routing protocols are discussed, and many NP-complete or NP-hard problems regarding topology control are identified. The challenging open issues are discussed at the end. This paper can serve as a guideline to design resilient WSNs.
Resumo:
Written in defense of the students’ actions, this publication sought to clear the students in the eyes of the public. They argued against the stern disciplinary stance of the Corporation, warning that "it is possible to kill the spirt by too rigorous an adherence to the letter of the law." According to the students, the cause of the upheaval was the "black, nauseous and intolerable" food served in Commons. Although they admitted that there were some students who "delight in mischief, anarchy, and confusion," they argued against the whole student body being charged for the crimes. Instead, they held that their offense, "retiring peaceably from the hall," should be punished, as usual, only by the "small fine of fifty or one hundred cents."
Resumo:
This journal contains entries about various student "disorders" which occurred during Eliphalet Pearson’s tenure at Harvard. Daily entries describe a wide range of students’ rebellious conduct, which included: hissing at speakers in chapel, throwing snowballs and stones at College buildings and people (including tutors and then-President Joseph Willard), disrupting lectures by scraping chairs and feet, breaking windows, intoxication, moving and breaking furniture, stealing firewood, firing pistols, building bonfires, stealing supplies (food, cider and candles), throwing food and utensils during meals, stealing Bibles, wearing hats indoors, filling door locks with stones, drawing on lecture room walls with gravel, and silencing the morning chapel bell by filling it with molten pewter plates (stolen from the kitchen). There are also entries pertaining to more malicious offenses, including the drowning of a dog in a well. Several entries describe meetings of the College government to determine the appropriate punishments for each offense. Students were often fined, expelled, or suspended ("rusticated") for their unruly behavior.
Resumo:
In today's internet world, web browsers are an integral part of our day-to-day activities. Therefore, web browser security is a serious concern for all of us. Browsers can be breached in different ways. Because of the over privileged access, extensions are responsible for many security issues. Browser vendors try to keep safe extensions in their official extension galleries. However, their security control measures are not always effective and adequate. The distribution of unsafe extensions through different social engineering techniques is also a very common practice. Therefore, before installation, users should thoroughly analyze the security of browser extensions. Extensions are not only available for desktop browsers, but many mobile browsers, for example, Firefox for Android and UC browser for Android, are also furnished with extension features. Mobile devices have various resource constraints in terms of computational capabilities, power, network bandwidth, etc. Hence, conventional extension security analysis techniques cannot be efficiently used by end users to examine mobile browser extension security issues. To overcome the inadequacies of the existing approaches, we propose CLOUBEX, a CLOUd-based security analysis framework for both desktop and mobile Browser EXtensions. This framework uses a client-server architecture model. In this framework, compute-intensive security analysis tasks are generally executed in a high-speed computing server hosted in a cloud environment. CLOUBEX is also enriched with a number of essential features, such as client-side analysis, requirements-driven analysis, high performance, and dynamic decision making. At present, the Firefox extension ecosystem is most susceptible to different security attacks. Hence, the framework is implemented for the security analysis of the Firefox desktop and Firefox for Android mobile browser extensions. A static taint analysis is used to identify malicious information flows in the Firefox extensions. In CLOUBEX, there are three analysis modes. A dynamic decision making algorithm assists us to select the best option based on some important parameters, such as the processing speed of a client device and network connection speed. Using the best analysis mode, performance and power consumption are improved significantly. In the future, this framework can be leveraged for the security analysis of other desktop and mobile browser extensions, too.
Resumo:
A presente dissertação versa sobre a prova ilícita na investigação de paternidade, com a percepção que inexistem direitos e garantias absolutos. Sob esse ponto de vista, propõe-se a demonstrar que tanto o direito à prova quanto a garantia constitucional da inadmissibilidade da prova obtida por meios ilícitos são passíveis de sofrer restrições. Essas restrições, entretanto, não podem implicar na supressão de direitos e garantias fundamentais. Elas devem limitar-se ao estritamente necessário para a salvaguarda de outros direitos constitucionalmente protegidos, à luz de um juízo de ponderação entre os valores conflitantes. Os valores colidentes a serem analisados no presente trabalho são, por um lado, a proteção constitucional dispensada à intimidade, à vida privada, à imagem, à honra, ao sigilo da correspondência, às comunicações telegráficas, aos dados, às comunicações telefônicas e ao domicílio do suposto pai e, por outro, o direito do filho conhecer a sua origem genética e receber do genitor assistência material, educacional e psicológica, além da herança no caso de morte deste. Avultam-se, ainda, os comandos constitucionais da paternidade responsável (CF, o art. 226, § 7º) e da prioridade absoluta que a Constituição Federal confere às questões afetas à criança e ao adolescente. Nessa linha de perspectiva, procura conciliar o direito fundamental ao conhecimento da origem genética com a garantia constitucional que veda a obtenção da prova por meios ilícitos, reduzindo, quando necessário, o alcance de um desses valores contrastantes para que haja a preservação do outro e o restabelecimento do equilíbrio entre eles. Com o intuito de facilitar a compreensão do assunto, o estudo sobre a prova ilícita na investigação de paternidade encontra-se dividido em três capítulos. No primeiro capítulo são estudados o objeto da prova na investigação de paternidade, os fatos a provar, as teorias sobre o objeto da prova, o ônus da prova, a distribuição e a inversão do ônus da prova na investigação de paternidade, o momento da inversão do ônus da prova, o dever de colaboração e a realização do exame de DNA sem o consentimento das partes. Partindo da compreensão da prova como instrumento capaz de propiciar ao juiz o convencimento dos fatos pertinentes, relevantes e controvertidos deduzidos pelas partes como fundamento da ação ou da defesa, sustenta-se que os fatos a provar não são apenas os principais, mas, também, os acessórios que se situem na mesma cadeia deles. Desenvolve-se, outrossim, estudo sobre as teorias utilizadas pela doutrina para explicar o objeto da prova, a saber: a) a teoria clássica; b) a teoria da afirmação; c) a teoria mista. Nesse tópico, merece ênfase o fato das legislações brasileira e portuguesa estarem alicerçadas sob as bases da teoria clássica, em que pesem as divergências doutrinárias sobre o assunto. No item reservado ao ônus da prova, este é concebido como uma atividade e não como uma obrigação, diante da autonomia de vontade que a parte tem para comportar-se da maneira que melhor lhe aprouver para alcançar o resultado pretendido. Embora não traduza um dever jurídico demonstrar a veracidade dos fatos que ensejam a constituição do direito alegado, quem não consegue reunir a prova dos fatos que alega corre o risco de perder a demanda. No que tange à regra de distribuição do ônus da prova, recomenda-se a observação das disposições do art. 333 do CPC, segundo as quais incumbe ao autor comprovar o fato constitutivo do seu direito e ao réu a existência de fato impeditivo, modificativo ou extintivo do direito do autor. Argumenta-se que o CPC brasileiro adota o modelo estático de distribuição do ônus da prova, pois não leva em conta a menor ou maior dificuldade que cada parte tem para produzir a prova que lhe incumbe. Porém, ressalta-se o novo horizonte que se descortina no anteprojeto do novo CPC brasileiro que se encontra no Congresso Nacional, o qual sinaliza no sentido de acolher a distribuição dinâmica do ônus da prova. Esse novo modelo, contudo, não afasta aquele previsto no art. 333 do CPC, mas, sim, o aperfeiçoa ao atribuir o ônus a quem esteja em melhores condições de produzir a prova. Ao tratar do dever de colaboração, idealiza-se a busca descoberta da verdade como finalidade precípua do ordenamento jurídico. E, para se alcançar a justa composição da lide, compreende-se que as partes devem atuar de maneira escorreita, expondo os fatos conforme a verdade e cumprindo com exatidão os provimentos formais. Sob essa ótica, sustenta-se a possibilidade de inversão do ônus da prova, da aplicação da presunção legal de paternidade e até mesmo da condução coercitiva do suposto pai para a realização de exames, caso o mesmo a tanto se recuse ou crie, propositalmente, obstáculo capaz de tornar impossível a colheita da prova. Defende-se que a partir da concepção do nascituro, a autonomia de vontade dos pais fica restringida, de forma que a mãe não pode realizar o aborto e o pai não pode fazer pouco caso da existência do filho, recusando-se, injustificadamente, a submeter-se a exame de DNA e a dar-lhe assistência material, educacional e psicológica. É por essa razão que, em caráter excepcional, se enxerga a possibilidade de condução coercitiva do suposto pai para a coleta de material genético, a exemplo do que ocorre no ordenamento jurídico alemão (ZPO, § 372). Considera-se, outrossim, que a elucidação da paternidade, além de ajudar no diagnóstico, prevenção e tratamento de algumas doenças hereditárias, atende à exigência legal de impedir uniões incestuosas, constituídas entre parentes afins ou consanguíneos com a violação de impedimentos matrimoniais. Nesse contexto, a intangibilidade do corpo não é vista como óbice para a realização do exame de DNA, o qual pode ser feito mediante simples utilização de fios de cabelos com raiz, fragmentos de unhas, saliva e outros meios menos invasivos. O sacrifício a que se submete o suposto pai mostra-se, portanto, ínfimo se comparado com o interesse superior do investigante que se busca amparar. No segundo capítulo, estuda-se o direito fundamental à prova e suas limitações na investigação de paternidade, a prova vedada ou proibida, a distinção entre as provas ilegítima e ilícita, a manifestação e alcance da ilicitude, o tratamento dispensado à prova ilícita no Brasil, nos Estados Unidos da América e em alguns países do continente europeu, o efeito-à-distância das proibições de prova na investigação de paternidade e a ponderação de valores entre os interesses em conflito: prova ilícita x direito ao conhecimento da origem genética. Nesse contexto, o direito à prova é reconhecido como expressão do princípio geral de acesso ao Poder Judiciário e componente do devido processo legal, materializado por meio dos direitos de ação, de defesa e do contraditório. Compreende-se, entretanto, que o direito à prova não pode ser exercido a qualquer custo. Ele deve atender aos critérios de pertinência, relevância e idoneidade, podendo sofrer limitações nos casos expressamente previstos em lei. Constituem exemplos dessas restrições ao direito à prova a rejeição das provas consideradas supérfluas, irrelevantes, ilegítimas e ilícitas. A expressão “provas vedadas ou proibidas” é definida no trabalho como gênero das denominadas provas ilícita e ilegítima, servindo para designar as provas constituídas, obtidas, utilizadas ou valoradas com afronta a normas de direito material ou processual. A distinção que se faz entre a prova ilícita e a ilegítima leva em consideração a natureza da norma violada. Quando há violação a normas de caráter processual, sem afetar o núcleo essencial dos direitos fundamentais, considera-se a prova ilegítima; ao passo em que havendo infringência à norma de conteúdo material que afete o núcleo essencial do direito fundamental, a prova é tida como ilícita. Esta enseja o desentranhamento da prova dos autos, enquanto aquela demanda a declaração de nulidade do ato sem a observância da formalidade exigida. A vedação da prova ilícita, sob esse aspecto, funciona como garantia constitucional em favor do cidadão e contra arbítrios do poder público e dos particulares. Nessa ótica, o Direito brasileiro não apenas veda a prova obtida por meios ilícitos (CF, art. 5º, X, XI, XII e LVI; CPP, art. 157), como, também, prevê sanções penais e civis para aqueles que desobedeçam à proibição. A análise da prova ilícita é feita à luz de duas concepções doutrinárias, a saber: a) a restritiva - exige que a norma violada infrinja direito ou garantia fundamental; b) a ampla – compreende que a ilicitude afeta não apenas as normas que versem sobre os direitos e garantias fundamentais, mas todas as normas e princípios gerais do direito. A percepção que se tem à luz do art. 157 do CPP é que o ordenamento jurídico brasileiro adotou o conceito amplo de ilicitude, pois define como ilícitas as provas obtidas com violação a normas constitucionais ou legais, sem excluir àquelas de natureza processual nem exigir que o núcleo do direito fundamental seja atingido. Referido dispositivo tem sido alvo de críticas, pois a violação da lei processual pode não implicar na inadmissibilidade da prova e aconselhar o seu desentranhamento dos autos. A declaração de nulidade ou renovação do ato cuja formalidade tenha sido preterida pode ser suficiente para contornar o problema, sem a necessidade de exclusão da prova do processo. Noutra vertente, como a vedação da prova ilícita não pode ser levada às últimas consequências nem se converter em meio facilitador da prática de atos ilícitos e consagrador da impunidade, defende-se a sua admissão nos casos de estado de necessidade, legítima defesa, estrito cumprimento do dever legal e exercício regular de um direito. Assim, entende-se possível a utilização pela vítima de estupro, no processo de investigação de paternidade movido em prol do seu filho, do exame de DNA realizado mediante análise do sêmen deixado em sua vagina por ocasião do ato sexual que resultou na gravidez. Sustenta-se, ainda, a possibilidade de utilização das imagens captadas por circuito interno de câmaras comprobatórias do estupro para fazer prova da paternidade. Ressalta-se, outrossim, que no Brasil a doutrina e a jurisprudência têm admitido a prova ilícita, no processo penal, para comprovar a inocência do acusado e, em favor da vítima, nos casos de extorsão, concussão, sequestro e outros delitos similares. No ponto relativo ao efeito-àdistância das proibições de prova, aduz-se que as experiências americana e alemã da fruit of the poisonous tree doctrine e da fernwirkung são fonte de inspiração para as legislações de vários países. Por força da teoria dos frutos da árvore envenenada, o vício da planta transmite-se aos seus frutos. Ainda no segundo capítulo, estabelece-se breve comparação do tratamento conferido à prova ilícita nos ordenamentos jurídicos brasileiro e português, destacando-se que no regime de controle adotado pela Constituição da República Federativa do Brasil a prova ilícita é tratada como ineficaz e deve ser rejeitada de plano ou desentranhada do processo. Já na Constituição portuguesa adotou-se o regime de nulidade. Após o ingresso da prova ilícita no processo, o juiz declara a sua nulidade. O terceiro capítulo é dedicado ao estudo dos meios de prova e da incidência da ilicitude no processo de investigação de paternidade. Para tanto são eleitos os meios de prova enumerados no art. 212 do Código Civil, quais sejam: a) confissão; b) documento; c) testemunha; d) presunção; e) perícia, além do depoimento pessoal previsto no CPC, analisando a incidência da ilicitude em cada um deles. Má vontade a investigação de paternidade envolva direitos indisponíveis, isso não significa que as declarações das partes não tenham valor probatório, pois o juiz pode apreciá-las como elemento probatório (CC, art. 361º). Por meio do depoimento e confissão da parte são extraídas valiosas informações sobre o tempo, o lugar e a frequência das relações sexuais. Todavia, havendo emprego de métodos proibidos, tais como ameaça, coação, tortura, ofensa à integridade física ou moral, hipnose, utilização de meios cruéis, enganosos ou perturbação da capacidade de memória, a prova será considerada ilícita e não terá validade nem mesmo como elemento probatório a ser livremente apreciado pelo juiz. A prova documental é estudada como a mais vulnerável à incidência da ilicitude, pelo fato de poder expressar-se das mais variadas formas. Essa manifestação da ilicitude pode verificar-se por ocasião da formação da prova documental, no ato da sua obtenção ou no momento da sua exibição em juízo por meio falsificação material do documento público ou particular, da omissão de declaração deveria constar, inserção de declaração falsa ou diversa da que devia ser escrita, alteração de documento verdadeiro, emprego de métodos proibidos de prova para confecção do documento, etc. Na esteira desse raciocínio, em se fazendo constar, por exemplo, da escritura pública ou particular ou do testamento (CC, art. 1.609, II e III) declaração falsa da paternidade, a prova assim constituída é ilícita. Do mesmo modo, é considerada ilícita a prova obtida mediante indevida intromissão na vida privada, com violação de domicílio, emails, sigilos da correspondência, telefônico ou fiscal, realização de gravações, filmagens, etc. Na prova testemunhal entende-se como elemento configurador da ilicitude o emprego de métodos proibidos por parte de agentes públicos ou particulares, tais como tortura, coação, ameaça, chantagem, recursos que impliquem na diminuição ou supressão da capacidade de compreensão, etc, para que a testemunha faça afirmação falsa, negue ou cale a verdade dos fatos. Destaca-se, ainda, como ilícita a prova cujo acesso pela testemunha tenha ocorrido mediante violação à reserva da vida privada. No caso das presunções, vislumbra-se a possibilidade de incidência da ilicitude quando houver ilicitude no fato conhecido, do qual se vale a lei ou o julgador para extraírem as consequências para dedução da existência do fato desconhecido. A troca maliciosa de gametas é citada como meio ilícito de prova para alicerçar a presunção de paternidade no caso de inseminação artificial homóloga. A consecução da prévia autorização do marido, mediante coação, tortura, ameaça, hipnose, etc, na inseminação artificial heteróloga, também é tratada como ação danosa e capaz de viciar e infirmar a presunção legal de paternidade. Enxerga-se, outrossim, no meio de prova pericial, a possibilidade de maculação do resultado do exame por falha humana intencional no processo de coleta, transporte, armazenamento, manipulação ou troca do material genético coletado. Em se verificando essa situação, fica comprometida a credibilidade da prova pericial ante a sua ilicitude.
Resumo:
Each play has also special t.p.
Resumo:
"These papers, with one exception, have appeared in the Atlantic monthly. A part of Experience and the calendar, under another title, was published in the Reader magazine."
Resumo:
The psychology of conviction.--Belief and credulity.--The will to believe in the supernatural.--The case of Paladino.--The antecedents of the study of character and temperament.--Fact and fable in animal psychology.--"Malicious animal magnetism."--The democratic suspicion of education.--The psychology of indulgence: alcohol and tobacco.--The feminine mind.--Militarism and pacifism.
Resumo:
Cybercrime and related malicious activity in our increasingly digital world has become more prevalent and sophisticated, evading traditional security mechanisms. Digital forensics has been proposed to help investigate, understand and eventually mitigate such attacks. The practice of digital forensics, however, is still fraught with various challenges. Some of the most prominent of these challenges include the increasing amounts of data and the diversity of digital evidence sources appearing in digital investigations. Mobile devices and cloud infrastructures are an interesting specimen, as they inherently exhibit these challenging circumstances and are becoming more prevalent in digital investigations today. Additionally they embody further characteristics such as large volumes of data from multiple sources, dynamic sharing of resources, limited individual device capabilities and the presence of sensitive data. These combined set of circumstances make digital investigations in mobile and cloud environments particularly challenging. This is not aided by the fact that digital forensics today still involves manual, time consuming tasks within the processes of identifying evidence, performing evidence acquisition and correlating multiple diverse sources of evidence in the analysis phase. Furthermore, industry standard tools developed are largely evidence-oriented, have limited support for evidence integration and only automate certain precursory tasks, such as indexing and text searching. In this study, efficiency, in the form of reducing the time and human labour effort expended, is sought after in digital investigations in highly networked environments through the automation of certain activities in the digital forensic process. To this end requirements are outlined and an architecture designed for an automated system that performs digital forensics in highly networked mobile and cloud environments. Part of the remote evidence acquisition activity of this architecture is built and tested on several mobile devices in terms of speed and reliability. A method for integrating multiple diverse evidence sources in an automated manner, supporting correlation and automated reasoning is developed and tested. Finally the proposed architecture is reviewed and enhancements proposed in order to further automate the architecture by introducing decentralization particularly within the storage and processing functionality. This decentralization also improves machine to machine communication supporting several digital investigation processes enabled by the architecture through harnessing the properties of various peer-to-peer overlays. Remote evidence acquisition helps to improve the efficiency (time and effort involved) in digital investigations by removing the need for proximity to the evidence. Experiments show that a single TCP connection client-server paradigm does not offer the required scalability and reliability for remote evidence acquisition and that a multi-TCP connection paradigm is required. The automated integration, correlation and reasoning on multiple diverse evidence sources demonstrated in the experiments improves speed and reduces the human effort needed in the analysis phase by removing the need for time-consuming manual correlation. Finally, informed by published scientific literature, the proposed enhancements for further decentralizing the Live Evidence Information Aggregator (LEIA) architecture offer a platform for increased machine-to-machine communication thereby enabling automation and reducing the need for manual human intervention.
Resumo:
Criticism of religiously motivated contributions to public policy debate is largely misconceived. It assumes that the mischief which constitutional separation of church and state is supposed to cure is a domination of the state by the church. This presents only one side of the story. Subservience by the church to the slate should also be avoided. The law of a liberal state is legitimate to the extent that it does not conflict with the basic moral values of its citizens. Therefore, an ongoing conversation about basic values is necessary. Allowing churches and individual believers the freedom to make distinctive 'religious' contributions to this conversation is consistent with the separation of church and state. It is an aspect of the liberal democratic state's obligation to listen to all perspectives on difficult moral issues. A close relationship between church and state, on the other hand, has the capacity to impede the conversation.
Resumo:
Quantum-state sharing is a protocol where perfect reconstruction of quantum states is achieved with incomplete or partial information in a multipartite quantum network. Quantum-state sharing allows for secure communication in a quantum network where partial information is lost or acquired by malicious parties. This protocol utilizes entanglement for the secret-state distribution and a class of quantum disentangling protocols for the state reconstruction. We demonstrate a quantum-state sharing protocol in which a tripartite entangled state is used to encode and distribute a secret state to three players. Any two of these players can collaborate to reconstruct the secret state, while individual players obtain no information. We investigate a number of quantum disentangling processes and experimentally demonstrate quantum-state reconstruction using two of these protocols. We experimentally measure a fidelity, averaged over all reconstruction permutations, of F=0.73 +/- 0.02. A result achievable only by using quantum resources.
Resumo:
A domain independent ICA-based approach to watermarking is presented. This approach can be used on images, music or video to embed either a robust or fragile watermark. In the case of robust watermarking, the method shows high information rate and robustness against malicious and non-malicious attacks, while keeping a low induced distortion. The fragile watermarking scheme, on the other hand, shows high sensitivity to tampering attempts while keeping the requirement for high information rate and low distortion. The improved performance is achieved by employing a set of statistically independent sources (the independent components) as the feature space and principled statistical decoding methods. The performance of the suggested method is compared to other state of the art approaches. The paper focuses on applying the method to digitized images although the same approach can be used for other media, such as music or video.