961 resultados para Special purpose operations


Relevância:

80.00% 80.00%

Publicador:

Resumo:

This qualitative case study identifies and discusses the standards and risk management practices of the Ottawa Valley whitewater rafting industry and the impacts of the government enforced Special-purpose Vessels Regulations are discussed. Data collection occurred using a single case study design, which included interviews and document analysis. This study found that internal, industry, and actual standards are influenced through a variety of sources. These standards were found to affect the risk management practices of commercial whitewater rafting providers. In general, these standards promoted a high level of risk management within the Ottawa Valley rafting industry. The Special-purpose Vessels Regulations were found to be non-influential in raising the risk management standards of the Ottawa Valley whitewater rafting industry.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Loans are illiquid assets that can be sold in a secondary market even that buyers have no certainty about their quality. I study a model in which a lender has access to new investment opportunities when all her assets are illiquid. To raise funds, the lender may either borrow using her assets as collateral, or she can sell them in a secondary market. Given asymmetric information about assets quality, the lender cannot recover the total value of her assets. There is then a role for the government to correct the information problem using fiscal tools.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Recent excavations at Pre-Pottery Neolithic A (PPNA) WF16 in southern Jordan have revealed remarkable evidence of architectural developments in the early Neolithic. This sheds light on both special purpose structures and “domestic” settlement, allowing fresh insights into the development of increasingly sedentary communities and the social systems they supported. The development of sedentary communities is a central part of the Neolithic process in Southwest Asia. Architecture and ideas of homes and households have been important to the debate, although there has also been considerable discussion on the role of communal buildings and the organization of early sedentarizing communities since the discovery of the tower at Jericho. Recently, the focus has been on either northern Levantine PPNA sites, such as Jerf el Ahmar, or the emergence of ritual buildings in the Pre-Pottery Neolithic B of the southern Levant. Much of the debate revolves around a division between what is interpreted as domestic space, contrasted with “special purpose” buildings. Our recent evidence allows a fresh examination of the nature of early Neolithic communities.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Understanding the differences between contrasting groups is a fundamental task in data analysis. This realization has led to the development of a new special purpose data mining technique, contrast-set mining. We undertook a study with a retail collaborator to compare contrast-set mining with existing rule-discovery techniques. To our surprise we ob- served that straightforward application of an existing commercial rule-discovery system, Magnum Opus, could successfully perform the contrast-set-mining task. This led to the realization that contrast-set mining is a special case of the more general rule-discovery task. We present the results of our study together with a proof of this conclusion.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem como objetivo caracterizar o processo de decisão e implementação da Parceria Público-Privada da Saúde na Bahia – Hospital do Subúrbio. A metodologia utilizada foi a pesquisa qualitativa, na modalidade de estudo de caso, direcionada a compreender esse caso, através da narrativa dos principais stakeholders, de análise documental e da bibliografia nacional e internacional sobre o tema, desde textos legais até relatos de experiências internacionais. Com isso, pretende-se contribuir para o maior conhecimento e entendimento da PPP como uma nova modalidade institucional para a gestão da saúde, documentando um momento ainda inicial desse processo. Os resultados apontam que as principais condicionantes para a contratação de PPP, conforme a literatura internacional, foram atendidas: Análise Value for Money (VFM), elaboração de edital e contrato, licitação, formação de Sociedade de Propósito Específico (SPE), Fundo Garantidor de PPP. Analisando os pontos centrais na Nova Gestão Pública – gestão para resultados, construção de um modelo organizacional mais flexível e accountability – foi possível concluir que o projeto do Hospital do Subúrbio está alinhado com os princípios da gestão pública contemporânea. No entanto, é preciso amadurecer principalmente a accountability e seguir o caso para acompanhar seus resultados. Palavras chave: Gestão em Saúde; Gestão Pública da Saúde; Parceria Público-Privada; Administração Pública; Política de Saúde no Brasil.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Todos nós conhecemos vários tipos de atores: os de cinema, os de televisão, os de teatro, os de circo... porém há um outro tipo de ator a quem as pessoas não se referem: o ser humano. Este ator em especial representa vários papéis ao longo de sua vida. Um deles, para muitos de nós, é o de professor. O professor-ator representa para uma platéia específica - os alunos - com um objetivo também específico -seduzi-los para que haja êxito no processo ensino-aprendizagem. O presente estudo aponta para as contribuições deste processo ator no processo educativo. Da mesma forma, ressalta o tipo de relação estabelecida com os alunos, a partir do ponto de vista, tanto do professor, como do aluno. Trata-se de uma abordagem fenomenológica sobre a relação professor-aluno e suas consequências para o processo ensino-aprendizagem.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho foi desenvolvido com o objetivo de compreender a influência de uma liderança consultiva nas relações de confiança e comprometimento dentro de uma unidade de operações especiais, mais especificamente no Batalhão de Operações Especiais da Polícia Militar do Estado do Rio de Janeiro. Apresentamos os resultados de um estudo que se utilizou de métodos quantitativos e qualitativos, com entrevistas em profundidade, questionários estruturados e semiabertos. Os resultados apontam para uma relação direta entre um estilo de liderança consultivo e a confiança pessoal e profissional no líder.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho de pesquisa tem como objetivo identificar os fatores críticos determinantes para a construção da competência essencial do BOPE, o Batalhão de Operações Policiais Especiais da Polícia Militar do Estado do Rio de Janeiro, uma equipe de alto desempenho com forte autonomia atuando em cenários de alta incerteza. Apresentamos os resultados de um estudo realizado nesta unidade. Conduzimos a pesquisa utilizando métodos qualitativos, com historiografia oral, através de entrevistas em profundidade. Nossos resultados apontam para fatores como liderança, seleção, treinamento, confiança mútua e baixo distanciamento de poder, como críticos e explicativos na construção da competência essencial do BOPE.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O objetivo deste trabalho foi aprofundar a compreensão do modelo de coordenação informal no Batalhão de Operações Policiais Especiais da Polícia Militar do Estado do Rio de Janeiro - BOPE/RJ, uma unidade policial de operações especiais. Numa primeira etapa, conduzimos uma análise bibliográfica e documental sobre a confiança e seus antecedentes, tomando como base estudos anteriores realizados nesta unidade. Posteriormente, realizamos uma análise quantitativa, utilizando um banco de dados existente, fruto de esforços de pesquisa anteriores quando foi aplicado um questionário para os policiais desta unidade. Ao final de nossas análises, confirmamos a existência de uma relação direta e negativa entre distância de poder e confiança profissional no líder, ou seja, quanto maior a distância de poder, menor é a confiança profissional no líder. Comprovamos também que, quanto maior a percepção de acessibilidade, confiabilidade e transparência da informação compartilhada com os membros de uma equipe, maior é a confiança pessoal no líder. Além disso, quanto maior a percepção de compartilhamento e delegação de autoridade no processo de decisão do BOPE/RJ maior a confiança pessoal no líder.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem como escopo analisar a estrutura de contratação de plataformas de produção e sondas de perfuração e as formas por meio das quais se pode garantir o direito dos financiadores aos créditos decorrentes do afretamento desses equipamentos. A estrutura de sua contratação geralmente ocorre por meio da celebração de contratos coligados de afretamento, com sociedade de propósito específico estrangeira (SPE), de prestação de serviços, com empresa vinculada constituída no Brasil. O financiamento, por sua vez, estrutura-se como um project finance internacional, em que a SPE toma financiamento junto a bancos estrangeiros, para pagamento da construção. Os direitos de crédito resultantes do afretamento servem como meio de pagamento do financiamento. Este trabalho analisa as principais características dos quatro arranjos contratuais por meio do qual os financiadores poderiam garantir seu acesso aos créditos, analisando as principais justificativas para sua possível adoção e os principais riscos relacionados à sua celebração, especialmente em vista da possibilidade de que a SPE seja parte de processo de recuperação judicial no Brasil, em razão da insolvência de seus controladores, quando estes são brasileiros. As quatro estruturas analisadas são a cessão de créditos regida pelas regras do Código Civil (Lei nº 10.406/2002), cessão fiduciária de direitos creditórios, prevista no artigo 66-B da Lei nº 4.728/1965, penhor de direitos e contratos regidos por legislação estrangeira.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

X-rays were initially used for the inspection of special-purpose wood pieces for quantitative evaluation properties of different species. X-ray densitometry has had its use expanded ill dendroclimatology of Picea engelmannii trees. Subsequent laboratories developed applications of X-ray densitometry for environmental, wood science and technology, and related areas. This paper describes the basic methodology of X-ray densitometry applied to the eucalypt wood analysis, as well its presenting the results of applications in three areas: (i) evaluation of wood biodegradation by white rot fungi, (ii) detection of sapwood and heartwood, and (iii) determination of the effect of management oil wood properties. The wood decayed by white rot fungi was detected by X-ray densitometry with it decreasing wood density due to the biodegradation of cell wall components. The sapwood and heartwood of eucalypts were separated in response to the attenuation of X-rays, reflected by the wood anatomical structure and chemical composition. Also, Ill eucalypt trees after the application of irrigation and i characteristic wood density profiles were detected. Ill addition, the significant potential of X-ray densitometry for eucalypt wood research and analysis is discussed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The temperature dependence has been investigated for the photoinduced birefringence in Langmuir-Blodgett (LB) films from the azocopolymer 4-[N- ethyl -N-(2-hydroxyethyl)] amino-2'-chloro-4'-nitroazobenzene (MMA-DR13) mixed with cadmium stearate. The buildup and relaxation of the birefringence in the range from 20 to 296 K were fitted with a Kohlrausch-Williams-Watts (KWW) function, with a beta-value of 0.78-0.98 for the build-up and 0.18-0.27 for the decay. This is consistent with a distribution of time constants for the kinetics of the birefringence processes. The maximum birefringence increased with increasing temperature up to 120 K because the free volume fluctuation also increased with temperature. Above 120 K, the birefringence decreased with temperature as thermal diffusion dominates. In the latter range of temperature, an Arrhenius behavior is inferred for both build-up and decay of birefringence. In each case two activation energies were obtained: 0.8 and 5 kJ/mol for the build-up and 10 and 30 kJ/mol for the decay. The energies for the build-up are much lower than those associated with motion of the polymer chain, which means that the dynamics is governed by the orientation of the chromophores. For the decay, local motion of lateral groups of the polymer chains becomes important as the activation energies are within the range of gamma-relaxation energies. (C) 2003 Elsevier B.V. B.V. All rights reserved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mixed integer programming is up today one of the most widely used techniques for dealing with hard optimization problems. On the one side, many practical optimization problems arising from real-world applications (such as, e.g., scheduling, project planning, transportation, telecommunications, economics and finance, timetabling, etc) can be easily and effectively formulated as Mixed Integer linear Programs (MIPs). On the other hand, 50 and more years of intensive research has dramatically improved on the capability of the current generation of MIP solvers to tackle hard problems in practice. However, many questions are still open and not fully understood, and the mixed integer programming community is still more than active in trying to answer some of these questions. As a consequence, a huge number of papers are continuously developed and new intriguing questions arise every year. When dealing with MIPs, we have to distinguish between two different scenarios. The first one happens when we are asked to handle a general MIP and we cannot assume any special structure for the given problem. In this case, a Linear Programming (LP) relaxation and some integrality requirements are all we have for tackling the problem, and we are ``forced" to use some general purpose techniques. The second one happens when mixed integer programming is used to address a somehow structured problem. In this context, polyhedral analysis and other theoretical and practical considerations are typically exploited to devise some special purpose techniques. This thesis tries to give some insights in both the above mentioned situations. The first part of the work is focused on general purpose cutting planes, which are probably the key ingredient behind the success of the current generation of MIP solvers. Chapter 1 presents a quick overview of the main ingredients of a branch-and-cut algorithm, while Chapter 2 recalls some results from the literature in the context of disjunctive cuts and their connections with Gomory mixed integer cuts. Chapter 3 presents a theoretical and computational investigation of disjunctive cuts. In particular, we analyze the connections between different normalization conditions (i.e., conditions to truncate the cone associated with disjunctive cutting planes) and other crucial aspects as cut rank, cut density and cut strength. We give a theoretical characterization of weak rays of the disjunctive cone that lead to dominated cuts, and propose a practical method to possibly strengthen those cuts arising from such weak extremal solution. Further, we point out how redundant constraints can affect the quality of the generated disjunctive cuts, and discuss possible ways to cope with them. Finally, Chapter 4 presents some preliminary ideas in the context of multiple-row cuts. Very recently, a series of papers have brought the attention to the possibility of generating cuts using more than one row of the simplex tableau at a time. Several interesting theoretical results have been presented in this direction, often revisiting and recalling other important results discovered more than 40 years ago. However, is not clear at all how these results can be exploited in practice. As stated, the chapter is a still work-in-progress and simply presents a possible way for generating two-row cuts from the simplex tableau arising from lattice-free triangles and some preliminary computational results. The second part of the thesis is instead focused on the heuristic and exact exploitation of integer programming techniques for hard combinatorial optimization problems in the context of routing applications. Chapters 5 and 6 present an integer linear programming local search algorithm for Vehicle Routing Problems (VRPs). The overall procedure follows a general destroy-and-repair paradigm (i.e., the current solution is first randomly destroyed and then repaired in the attempt of finding a new improved solution) where a class of exponential neighborhoods are iteratively explored by heuristically solving an integer programming formulation through a general purpose MIP solver. Chapters 7 and 8 deal with exact branch-and-cut methods. Chapter 7 presents an extended formulation for the Traveling Salesman Problem with Time Windows (TSPTW), a generalization of the well known TSP where each node must be visited within a given time window. The polyhedral approaches proposed for this problem in the literature typically follow the one which has been proven to be extremely effective in the classical TSP context. Here we present an overall (quite) general idea which is based on a relaxed discretization of time windows. Such an idea leads to a stronger formulation and to stronger valid inequalities which are then separated within the classical branch-and-cut framework. Finally, Chapter 8 addresses the branch-and-cut in the context of Generalized Minimum Spanning Tree Problems (GMSTPs) (i.e., a class of NP-hard generalizations of the classical minimum spanning tree problem). In this chapter, we show how some basic ideas (and, in particular, the usage of general purpose cutting planes) can be useful to improve on branch-and-cut methods proposed in the literature.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase più importante dello sviluppo sarà la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercherà di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sarà quindi di tipo platform-independent. Per la generazione automatica di codice è stata adottata una piattaforma di riferimento, cioè Arduino. Arduino è un sistema embedded che si sta sempre più affermando perché coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito è un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello può essere considerato anche come la sintassi astratta di un linguaggio, quindi può essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello è stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore è l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice è stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione è stato spostato più in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si è quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualità ed il meta-modello viene tradotto in codice che funziona correttamente.