997 resultados para Python (Llenguatge de programació)
Resumo:
-scale vary from a planetary scale and million years for convection problems to 100km and 10 years for fault systems simulations. Various techniques are in use to deal with the time dependency (e.g. Crank-Nicholson), with the non-linearity (e.g. Newton-Raphson) and weakly coupled equations (e.g. non-linear Gauss-Seidel). Besides these high-level solution algorithms discretization methods (e.g. finite element method (FEM), boundary element method (BEM)) are used to deal with spatial derivatives. Typically, large-scale, three dimensional meshes are required to resolve geometrical complexity (e.g. in the case of fault systems) or features in the solution (e.g. in mantel convection simulations). The modelling environment escript allows the rapid implementation of new physics as required for the development of simulation codes in earth sciences. Its main object is to provide a programming language, where the user can define new models and rapidly develop high-level solution algorithms. The current implementation is linked with the finite element package finley as a PDE solver. However, the design is open and other discretization technologies such as finite differences and boundary element methods could be included. escript is implemented as an extension of the interactive programming environment python (see www.python.org). Key concepts introduced are Data objects, which are holding values on nodes or elements of the finite element mesh, and linearPDE objects, which are defining linear partial differential equations to be solved by the underlying discretization technology. In this paper we will show the basic concepts of escript and will show how escript is used to implement a simulation code for interacting fault systems. We will show some results of large-scale, parallel simulations on an SGI Altix system. Acknowledgements: Project work is supported by Australian Commonwealth Government through the Australian Computational Earth Systems Simulator Major National Research Facility, Queensland State Government Smart State Research Facility Fund, The University of Queensland and SGI.
Resumo:
This material is based upon work supported by the National Science Foundation through the Florida Coastal Everglades Long-Term Ecological Research program under Cooperative Agreements #DBI-0620409 and #DEB-9910514. This image is made available for non-commercial or educational use only.
Resumo:
This material is based upon work supported by the National Science Foundation through the Florida Coastal Everglades Long-Term Ecological Research program under Cooperative Agreements #DBI-0620409 and #DEB-9910514. This image is made available for non-commercial or educational use only.
Resumo:
This material is based upon work supported by the National Science Foundation through the Florida Coastal Everglades Long-Term Ecological Research program under Cooperative Agreements #DBI-0620409 and #DEB-9910514. This image is made available for non-commercial or educational use only.
Resumo:
Photometry of moving sources typically suffers from a reduced signal-to-noise ratio (S/N) or flux measurements biased to incorrect low values through the use of circular apertures. To address this issue, we present the software package, TRIPPy: TRailed Image Photometry in Python. TRIPPy introduces the pill aperture, which is the natural extension of the circular aperture appropriate for linearly trailed sources. The pill shape is a rectangle with two semicircular end-caps and is described by three parameters, the trail length and angle, and the radius. The TRIPPy software package also includes a new technique to generate accurate model point-spread functions (PSFs) and trailed PSFs (TSFs) from stationary background sources in sidereally tracked images. The TSF is merely the convolution of the model PSF, which consists of a moffat profile, and super-sampled lookup table. From the TSF, accurate pill aperture corrections can be estimated as a function of pill radius with an accuracy of 10 mmag for highly trailed sources. Analogous to the use of small circular apertures and associated aperture corrections, small radius pill apertures can be used to preserve S/Ns of low flux sources, with appropriate aperture correction applied to provide an accurate, unbiased flux measurement at all S/Ns.
Resumo:
Grazie all'evoluzione dei servizi di rete indirizzare le interfacce di rete come se fossero i veri destinatari delle comunicazioni è diventato obsoleto. Per questo è nato il concetto di Internet of Threads, in cui gli indirizzi IP sono assegnati ad ogni processo in esecuzione nel computer mediante una rete ethernet virtuale. Attualmente esistono progetti che forniscono la gestione della rete virtuale e librerie che forniscono lo stack TCP/IP da integrare all'interno dei propri programmi. Queste librerie richiedono però la modifica e ricompilazione del proprio codice, anche a causa della loro interfaccia differente dai Berkeley Socket. Attraverso PycoTCP è possibile sperimentare all'interno di un ambiente IoTh senza riscrivere il proprio codice. Inoltre unifica le API fornite dalle librerie sottostanti esponendo una interfaccia identica a quella standard del Python, in modo che non sia necessario imparare un altro metodo di programmazione per utilizzare il nuovo paradigma.
Resumo:
A range of organohalogen compounds (10 polychlorinated biphenyl [PCB] congeners, DDT and metabolites, chlordane-related compounds, the potential natural organochlorine compound Q1, toxaphene, hexachlorobenzene, hexachlorocyclohexanes, dieldrin, and several yet unidentified brominated compounds) were detected in the blubber of four bottlenose dolphins (Tursiops truncatus), one common dolphin (Delphinus delphis), and seven dugongs (Dugong dugon), as well as in adipose tissue of a green turtle (Chelonia mydas) and a python (Morelia spilota) from northeast Queensland (Australia). The green turtle and dugongs accumulated lower organohalogen levels than the dolphins. Lower levels in dugongs were expected because this species is exclusively herbivorous. Highest PCB and DDT levels recorded in dugongs were 209 and 173 mug/kg lipids, respectively. Levels of the nonanthropogenic heptachlorinated compound Q1 (highest level in dugongs was 160 mug/kg lipids) were estimated using the ECD response factor of trans-nonachlor. Highest organohalogen levels were found in blubber of dolphins for sumDDT (575-52,500 mug/kg) and PCBs (600-25,500 mug/kg lipids). Furthermore, Q1 was a major organohalogen detected in all samples analyzed, ranging from 450 -9,100 mug/kg lipids. The highest concentration of Q1 determined in this study represents the highest concentration reported to date in an environmental sample. Levels of chlordane-related compounds were also high (280-7,700 mug/kg, mainly derived from trans-nonachlor), but concentrations of hexachlorobenzene, hexachlorocyclohexanes, dieldrin, and toxaphene were relatively low and contributed little to the overall organohalogen contamination. Furthermore, a series of three major (BC-1, BC-2, and BC-3) and six minor (BC-4 through BC-9) unknown brominated compounds were observable by extracting m/z 79 and m/z 81 from the GC/ECNI-MS full scan run. Structural proposals were made for the two major recalcitrant compounds (referred to as BC-1 and BC-2). BC-2 appears to be a tetrabromo-methoxy-diphenylether (512 u) and BC-1 has 14 u (corresponding with an additional CH2 group) more relative to BC-1. In general the organohalogen pattern observed in blubber of dolphins was different compared to similar samples from other locations in the world, which is apparent from the fact that the four major abundant signals in the GC/ECD chromatogram. of D. delphis originated from the four unknown compounds Q1, BC-1, BC-2, and BC-3.
Resumo:
O presente Plano Anual de A????o (PAA 2014) inscreve-se em clara continuidade com os precedentes exerc??cios program??ticos do programa EUROsocial II. No entanto, na medida que se passou o equador e se entra na reta final do Programa, se realizou um grande esfor??o para concentrar a????es e se focar em pa??ses que apresentam menos riscos e maiores condi????es de viabilidade para o alcance dos resultados esperados. Neste sentido, no ano 2014 vai representar um ponto de inflex??o, no que culminar?? grande parte das a????es do Programa, documentar-se-?? uma boa parte dos resultados conseguidos, projetando para o ano 2015 linhas de trabalho mais intersetoriais e estrat??gicas. Por conseguinte tem-se um PAA mais simplificado e melhor estruturado (de 10 ??reas tem??ticas passou-se a 4 macro-??reas), com uma dimens??o regional mais potente que tem permitido elevar a dimens??o estrat??gica do programa, e com a????es mais interconectadas e coerentes que respondem melhor a uma vis??o unit??ria do Programa. Neste exerc??cio de programa????o tanto os s??cios operativos como os s??cios coordenadores t??m sabido conjugar melhor os dif??ceis equil??brios que deve manter o programa: orienta????o a demanda vs. gest??o para resultados; dimens??o regional vs. abordagem de problem??ticas a n??vel nacional; dimens??o estrat??gica vs. dimens??o operativa. Tamb??m se incorporou algumas das recomenda????es realizadas por parte da avalia????o de meio de percurso que se realizou no segundo semestre do 2013.
Resumo:
O artigo pretende mostrar as dificuldades de sustentabilidade da atividade cinematogr??fica brasileira. Com base na an??lise da cadeia produtiva, na estrutura tribut??ria e nas falhas da legisla????o de incentivo fiscal, prop??e-se a exist??ncia de um ciclo vicioso de depend??ncia aos incentivos fiscais. Tendo em vista as dificuldades de acesso a salas de cinema, devido, entre outros fatores, ao baixo poder aquisitivo da popula????o e ?? concentra????o geogr??fica de cinemas nas grandes cidades, prop??e-se uma parceria efetiva entre cinema e televis??o, facilitada pela tecnologia digital. Isso implicar?? altera????es na legisla????o atual, bem como a cria????o de regras regulat??rias, como forma de ampliar o acesso de filmes nacionais ?? grade de programa????o televisiva e tamb??m de viabilizar, em termos industriais, essa atividade econ??mica.
Resumo:
O presente trabalho utiliza a metodologia DEA (Data Envelopment Analysis ), para avaliar a efici??ncia das 22 Ag??ncias da Previd??ncia Social ??? Ger??ncia Executiva Fortaleza (APS-GEXFOR). DEA utiliza programa????o linear cujo n??cleo das estruturas anal??ticas ?? formado a partir do modelo original CCR (Charnes, Cooper, e Rhodes). Aplicada ??s DMU (Decision Making Units), define uma Fronteira de Efici??ncia identificando Unidades Eficientes e Ineficientes. Foi utilizado o modelo DEA-CCR implementado pelo software DEA Solver??. A Previd??ncia Social (INSS) disp??e de indicadores de desempenho. Algumas vari??veis utilizadas no modelo implementado derivam desses indicadores, outras informa????es foram disponibilizadas pelos sistemas de informa????o da institui????o. A avalia????o de efici??ncia DEA das APS-GEXFOR permitiu identificar as melhores pr??ticas, mensurar a participa????o de cada vari??vel envolvida na avalia????o da unidade e projetar as unidades ineficientes na fronteira de efici??ncia, identificando metas a serem atingidas para torn??-las eficientes no conjunto observado.
Resumo:
O presente artigo pretende analisar a quest??o da qualidade da programa????o na televis??o brasileira a partir da proposta de um novo marco regulat??rio para o setor de comunica????o social eletr??nica. Essa nova lei, entre outras disposi????es, ir?? regulamentar o artigo 221 da Constitui????o Federal, que trata dos princ??pios pelos quais o conte??do televisivo deve pautar-se. Com isso, define-se qualidade levando-se em considera????o dois aspectos: diversidade e ressalvas ?? liberdade de express??o, ambos previstos na Constitui????o Federal. A partir dessa conceitua????o, prop??e-se a instrumentaliza????o do controle social sobre o conte??do televisivo e a garantia de meios para a diversidade da programa????o. Com rela????o ao primeiro aspecto, recomenda-se a atua????o transparente de uma futura ag??ncia reguladora e a implementa????o de mecanismo de controle individual da programa????o. No que tange ?? diversidade, ressalta-se a import??ncia do fortalecimento das televis??es p??blicas e medidas governamentais no sentido de estimular a multiprograma????o propiciada pelo advento da tecnologia digital.
Resumo:
A presente dissertação apresenta um conjunto de algoritmos, cujo objetivo é a determinação da capacidade máxima de energia que é possível integrar numa rede de energia elétrica, seja num único nó ou em vários nós simultaneamente. Deste modo, obtém-se uma indicação dos locais mais adequados à nova instalação de geração e quais os reforços de rede necessários, de forma a permitirem a alocação da nova energia. Foram estudados e identificados os fatores que influenciam o valor da capacidade máxima nodal, assim como as suas consequências no funcionamento da rede, em particular o carácter simultâneo associado às referidas injeções nodais. Nesse sentido, são apresentados e desenvolvidos algoritmos que têm em consideração as características técnicas da geração a ligar e as restrições físicas impostas pela rede elétrica existente. Os algoritmos desenvolvidos apresentados baseiam-se em busca gaussiana, tendo sido igualmente implementada uma heurística que tem em consideração a proximidade de outras injeções em nós adjacentes e finalmente, dada a natureza combinatória do problema, propõe-se a aplicação de algoritmos genéticos especificamente adaptados ao problema Conclui-se que os algoritmos genéticos encerram características que lhes permitem ser aplicados em qualquer topologia com resultados superiores a todos os algoritmos desenvolvidos. Os métodos apresentados foram desenvolvidos e implementados usando a linguagem de programação Python, tendo-se desenvolvido ainda um interface visual ao utilizador, baseado em wxPython, onde estão implementadas diversas ferramentas que possibilitam a execução dos algoritmos, a configuração dos seus parâmetros e ainda o acesso à informação resultante dos algoritmos em formato Excel.
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Energia