929 resultados para Lender liability
Resumo:
Hoy día nadie discute la importancia de predecir el comportamiento vibroacústico de estructuras (edificios, vehículos aeronaves, satélites). También se ha hecho patente, con el tiempo, que el rango espectral en el que la respuesta es importante se ha desplazado hacia alta frecuencia en prácticamente todos los campos. Esto ha hecho que los métodos de análisis en este rango alto de frecuencias cobren importancia y actualidad. Uno de los métodos más extendidos para este fin es el basado en el Análisis Estadístico de la Energía, SEA. Es un método que ha mostrado proporcionar un buen equilibrio entre potencia de calculo, precisión y fiabilidad. En un SEA el sistema (estructura, cavidades o aire circundante) se modela mediante una matriz de coeficientes que dependen directamente de los factores de pérdidas de las distintas partes del sistema. Formalmente es un método de análisis muy cómodo e intuitivo de manejar cuya mayor dificultad es precisamente la determinación de esos factores de pérdidas. El catálogo de expresiones analíticas o numéricas para su determinación no es suficientemente amplio por lo que normalmente siempre se suele acabar necesitando hacer uso de herramientas experimentales, ya sea para su obtención o la comprobación de los valores utilizados. La determinación experimental tampoco está exenta de problemas, su obtención necesita de configuraciones experimentales grandes y complejas con requisitos que pueden llegar a ser muy exigentes y en las que además, se ven involucrados problemas numéricos relacionados con los valores de los propios factores de pérdidas, el valor relativo entre ellos y las características de las matrices que conforman. Este trabajo estudia la caracterización de sistemas vibroacústicos mediante el análisis estadístico de energía. Se centra en la determinación precisa de los valores de los factores de pérdidas. Dados los problemas que puede presentar un sistema experimental de estas características, en una primera parte se estudia la influencia de todas las magnitudes que intervienen en la determinación de los factores de pérdidas mediante un estudio de incertidumbres relativas, que, por medio de los coeficientes de sensibilidad normalizados, indicará la importancia de cada una de las magnitudes de entrada (esencialmente energías y potencias) en los resultados. De esta parte se obtiene una visión general sobre a qué mensurados se debe prestar más atención, y de qué problemas pueden ser los que más influyan en la falta de estabilidad (o incoherencia) de los resultados. Además, proporciona un modelo de incertidumbres válido para los casos estudiados y ha permitido evaluar el error cometido por algún método utilizado habitualmente para la caracterización de factores de pérdidas como la aproximación a 2 subsistemas En una segunda parte se hace uso de las conclusiones obtenidas en la primera, de forma que el trabajo se orienta en dos direcciones. Una dirigida a la determi nación suficientemente fiel de la potencia de entrada que permita simplificar en lo posible la configuración experimental. Otra basada en un análisis detallado de las propiedades de la matriz que caracteriza un SEA y que conduce a la propuesta de un método para su determinación robusta, basada en un filtrado de Montecarlo y que, además, muestra cómo los problemas numéricos de la matriz SEA pueden no ser tan insalvables como se apunta en la literatura. Por último, además, se plantea una solución al caso en el que no todos los subsistemas en los que se divide el sistema puedan ser excitados. El método propuesto aquí no permite obtener el conjunto completo de coeficientes necesarios para definir un sistema, pero el solo hecho de poder obtener conjuntos parciales ya es un avance importante y, sobre todo, abre la puerta al desarrollo de métodos que permitan relajar de forma importante las exigencias que la determinación experimental de matrices SEA tiene. ABSTRACT At present there is an agreement about the importance to predict the vibroacoustic response of structures (buildings, vehicles, aircrafts, satellites, etc.). In addition, there has become clear over the time that the frequency range over which the response is important has been shift to higher frequencies in almost all the engineering fields. As a consequence, the numerical methods for high frequency analysis have increase in importance. One the most widespread methods for this type of analysis is the one based on the Statistical Energy Analysis, SEA. This method has shown to provide a good balance among calculation power, accuracy and liability. Within a SEA, a system (structure, cavities, surrounding air) is modeled by a coefficients matrix that depends directly on the loss factors of the different parts of the system. Formally, SEA is a very handy and intuitive analysis method whose greatest handicap is precisely the determination of the loss factors. The existing set of analytical or numerical equations to obtain the loss factor values is not enough, so that usually it is necessary to use experimental techniques whether it is to its determination to to check the estimated values by another mean. The experimental determination presents drawbacks, as well. To obtain them great and complex experimental setups are needed including requirements that can be very demanding including numerical problems related to the values of the loss factors themselves, their relative value and the characteristics of the matrices they define. The present work studies the characterization of vibroacousti systems by this SEA method. It focuses on the accurate determination of the loss factors values. Given all the problems an experimental setup of these characteristics can show, the work is divided in two parts. In the first part, the influence of all the quantities involved on the determination of the loss factors is studied by a relative uncertainty estimation, which, by means of the normalised sensitivity coefficients, will provide an insight about the importance of every input quantities (energies and input powers, mainly) on the final result. Besides, this part, gives an uncertainty model that has allowed assessing the error of one of the methods more widely used to characterize the loss factors: the 2-subsystem approach. In the second part, use of the former conclusions is used. An equation for the input power into the subsystems is proposed. This equation allows simplifying the experimental setup without changing the liability of the test. A detailed study of the SEA matrix properties leads to propose a robust determination method of this SEA matrix by a Monte Carlo filtering. In turn, this new method shows how the numerical problems of the SEA matrix can be overcome Finally, a solution is proposed for the case where not all the subsystems are excited. The method proposed do not allows obtaining the whole set of coefficients of the SEA matrix, but the simple fact of getting partial sets of loss factors is a significant advance and, over all, it opens the door to the development of new methods that loosen the requirements that an experimental determination of a SEA matrix have.
Resumo:
Es, en el encuentro de los edificios con el terreno, donde el suelo como realidad se transforma en cualidad arquitectónica. La presente tesis aborda el estudio del plano del suelo, haciendo una revisión crítica de la arquitectura como mecanismo de pensamiento proyectual. Este análisis se enmarca a partir de los años sesenta, por considerar que es cuando comienza a evidenciarse la ruptura respecto a la herencia del Movimiento Moderno. Es entonces cuando la arquitectura marca un punto de inflexión, y empiezan a surgir diferentes actitudes metodológicas respecto al suelo, totalmente nuevas. Las clásicas acciones de encuentro como posar, elevar o enterrar fueron poco a poco sustituidas por otras más complejas como plegar, inclinar o esponjar. Utilizando como marco de restricción los encuentros o desencuentros del objeto arquitectónico con el terreno, se analiza el suelo como estrategia arquitectónica tratando de demostrar como su manipulación puede ser una eficaz herramienta con la que establecer relaciones específicas con el lugar. La capacidad que presenta el suelo, como elemento arquitectónico, de explorar y modificar las características de cada entorno, hacen de esta superficie una eficiente forma de contextualización. Por tanto, la manipulación del suelo que aquí se plantea, opera transcodificando los elementos específicos de cada lugar y actúa como estrategia arquitectónica que pone en relación al edificio con el contexto, modificando las particularidades formales de dicho plano. Frente a la tendencia que reduce la expresión arquitectónica a una simple apariencia formal autónoma, se plantea la manipulación del plano del suelo como mecanismo de enraizamiento con el lugar, enfatizando para ello la condición terrestre de la arquitectura. El plano del suelo es el que ata al edificio mediante la gravedad a la corteza terrestre. En realidad se trata de realzar el carácter mediador del suelo en la arquitectura, definiendo para ello el establecimiento de elementos comunes entre realidades distintas, potenciando el valor del suelo como herramienta que puede transcodificar el entorno, trasformando su datos en elementos arquitectónicos concretos. En este proceso de traducción de información, el suelo pasa de ser un objeto pasivo a ser uno operativo, convirtiéndose en parte activa de las acciones que sobre él se ejercen. La tesis tiene también como propósito demostrar cómo, la clave de la rápida evolución que el suelo como estrategia arquitectónica ha sufrido en los últimos años, mucho debe a la expansión del suelo en otras artes como en la escultura, y mas concretamente en el landart. Surgen entonces nuevas disciplinas, en las que se propone la comprensión del lugar en los proyectos desarrollando una visión integral del mundo natural, convirtiéndolo en un tejido viviente y conector que pone en relación las actividades que sustenta. También encontramos en Utzon, y sus plataformas geológicas, al precursor de la importancia que más tarde se le daría al plano del suelo en la arquitectura, ya que inicia cierta actitud crítica, que hizo avanzar hacia una arquitectura más expresiva que requería nuevos mecanismos que la relacionasen con el suelo que los soportaba, proponiendo con sus plataformas una transformación infraestructural del suelo. Con su interpretación transcultural de las estructuras espaciales arquetípicas mayas, chinas y japonesas, irá enriqueciendo el panorama arquitectónico, adquiriendo de este modo más valor el contexto que acabará por ser entendido de forma más compleja. Los proyectos de arquitectura en muchas ocasiones se han convertido en territorios propicios de especulación donde construir teoría arquitectónica. Desde este contexto se analizan cuatro estrategias de suelo a través del estudio de cuatro posiciones arquitectónicas muy significativas desde el punto de vista de la manipulación del plano del suelo, que construyen una interesante metodología proyectual con la que operar. Los casos de estudio, propuestos son; la Terminal Pasajeros (1996-2002) en Yokohama del estudio FOA, la Casa de la Música (1999-2005) de OMA en Oporto, el Memorial Judío (1998-2005) de Berlín de Peter Eisenman, y por último el Museo MAXXI (1998-2009) de Zaha Hadid en Roma. Descubrir las reglas, referencias y metodologías que cada uno nos propone, nos permite descubrir cuáles son los principales posicionamientos en relación al proyecto y su relación con el lugar. Las propuestas aquí expuestas abordan una nueva forma de entender el suelo, que hizo avanzar a la arquitectura hacia nuevos modos de encuentro con el terreno. Nos permite también establecer cuáles son las principales aportaciones arquitectónicas del suelo, como estrategia arquitectónica, que han derivado en su reformulación. Dichas contribuciones abren nuevas formas de abordar la arquitectura basadas en el movimiento y en la flexibilidad funcional, o en la superposición de flujos de información y circulación. También plantean nuevas vías desdibujando la figura contra el fondo, y refuerzan la idea del suelo como plataforma infraestructural que ya había sido enunciada por Utzon. Se trata en definitiva de proponer la exploración de la superficie del suelo como el elemento más revelador de las formas emergentes del espacio. ABSTRACT Where the building hits the ground, it is where the latter as reality becomes architectural quality. This thesis presents the study of the ground plane, making a critical review of architecture as a mechanism of projectual thought. This analysis starts from the sixties, because it is when the break begins to be demonstrated with regard to the inheritance of the Modern Movement. It is then when architecture marks a point of inflexion, and different, completely new methodological attitudes to the ground start to emerge. The classic meeting action like place, raise or bury are gradually replaced by more complex operations such as fold, bend or fluff up. Framing it within the meetings or disagreements between architectural object and ground, we analyzed it as architectural strategy trying to show how handling can be an effective tool to establish a specific relationship with the place. The capacity ground has, as an architectural element, to explore and modify the characteristics of each environment, makes this area an efficient tool for contextualization. Therefore, the manipulation of ground that is analyzed here, operates transcoding the specifics of each place and acts as architectural strategy that relates to the building with the context, modifying the structural peculiarities of such plane. Opposite to the reductive tendency of the architectural expression to a simple formal autonomous appearance, the manipulation of the ground plane is considered as a rooting mechanism place that emphasises the earthly condition of architecture. The ground plane is the one that binds the building by gravity to the earth’s crust. In fact, it tries to study the mediating character of the ground in architecture, defining for it to establish commonalities among different realities, enhancing the value of the ground as a tool that can transcode the environment, transforming its data into specific architectural elements. In this process of translating information, the ground goes from being a liability, to become active part of the actions exerted on the object. The thesis also tries to demonstrate how the key of the rapid evolution that the ground likes architectural strategy has gone through recently, much due to its use expansion in other arts such as sculpture. New disciplines arise then, in which one proposes the local understanding in the projects, developing an integral vision of the natural world and turning it into an element linking the activities it supports. We also find in Utzon, and his geological platforms, the precursor of the importance that later would be given to the ground plane in architecture, since it initiates a certain critical attitude, which advances towards a more expressive architecture, with new mechanisms that relate to the ground that it sits in, proposing with its platforms an infrastructural transformation of the ground. With his transcultural interpretation of the spatial archetypal structures, he will enrich the architectural discourse, making the context become understood in more complex ways. Architectural projects in many cases have become territories prone to architectural theory speculation. Within this context, four strategies are analyzed through the study of four very significant architectural positions, from the point of view of handling the ground plane, and the project methodology within which to operate. The case studies analyzed are; Passenger Terminal (1996-2002) in Yokohama from FOA, The House of the music (1999-2005) the OMA in Oporto, The Jew monument (1998-2005) in Berlin the Peter Eisenman, and finally the MAXXI Museum (1998-2009) the Zaha Hadid in Rome. Discovering the rules, references and methodologies that each of those offer, it allows to discover what the main positions are regarding the building and its relationship with the place where it is located. The proposals exposed here try to shed a different light on the ground, which architecture advancing in new ways on how meet it. The crossing of the different studied positions, allows us to establish what the main contributions of ground as architectural strategy are. Such contributions open up new approaches to architecture based on movement and functional flexibility, overlapping information flow and circulation, consider new ways that blur the figure against the background, and reinforce the idea of ground as infrastructural platform, already raised by Utzon. Summarizing, it tries to propose the exploration of the ground plane as the most revealing form of spatial exploration.
Resumo:
As várias teorias acerca da estrutura de capital despertam interesse motivando diversos estudos sobre o assunto sem, no entanto, ter um consenso. Outro tema aparentemente pouco explorado refere-se ao ciclo de vida das empresas e como ele pode influenciar a estrutura de capital. Este estudo teve como objetivo verificar quais determinantes possuem maior relevância no endividamento das empresas e se estes determinantes alteram-se dependendo do ciclo de vida da empresa apoiada pelas teorias Trade Off, Pecking Order e Teoria da Agência. Para alcançar o objetivo deste trabalho foi utilizado análise em painel de efeito fixo sendo a amostra composta por empresas brasileiras de capital aberto, com dados secundários disponíveis na Economática® no período de 2005 a 2013, utilizando-se os setores da BM&FBOVESPA. Como resultado principal destaca-se o mesmo comportamento entre a amostra geral, alto e baixo crescimento pelo endividamento contábil para o determinante Lucratividade apresentando uma relação negativa, e para os determinantes Oportunidade de Crescimento e Tamanho, estes com uma relação positiva. Para os grupos de alto e baixo crescimento alguns determinantes apresentaram resultados diferentes, como a singularidade que resultou significância nestes dois grupos, sendo positiva no baixo crescimento e negativa no alto crescimento, para o valor colateral dos ativos e benefício fiscal não dívida apresentaram significância apenas no grupo de baixo crescimento. Para o endividamento a valor de mercado foi observado significância para o Benefício fiscal não dívida e Singularidade. Este resultado reforça o argumento de que o ciclo de vida influência a estrutura de capital.
Resumo:
Alterations in sodium channel expression and function have been suggested as a key molecular event underlying the abnormal processing of pain after peripheral nerve or tissue injury. Although the relative contribution of individual sodium channel subtypes to this process is unclear, the biophysical properties of the tetrodotoxin-resistant current, mediated, at least in part, by the sodium channel PN3 (SNS), suggests that it may play a specialized, pathophysiological role in the sustained, repetitive firing of the peripheral neuron after injury. Moreover, this hypothesis is supported by evidence demonstrating that selective “knock-down” of PN3 protein in the dorsal root ganglion with specific antisense oligodeoxynucleotides prevents hyperalgesia and allodynia caused by either chronic nerve or tissue injury. In contrast, knock-down of NaN/SNS2 protein, a sodium channel that may be a second possible candidate for the tetrodotoxin-resistant current, appears to have no effect on nerve injury-induced behavioral responses. These data suggest that relief from chronic inflammatory or neuropathic pain might be achieved by selective blockade or inhibition of PN3 expression. In light of the restricted distribution of PN3 to sensory neurons, such an approach might offer effective pain relief without a significant side-effect liability.
Resumo:
Theoretical advantages of nonparametric logarithm of odds to map polygenic diseases are supported by tests of the beta model that depends on a single logistic parameter and is the only model under which paternal and maternal transmissions to sibs of specified phenotypes are independent. Although it does not precisely describe recurrence risks in monozygous twins, the beta model has greater power to detect family resemblance or linkage than the more general delta model which describes the probability of 0, 1, or 2 alleles identical by descent (ibd) with two parameters. Available data on ibd in sibs are consistent with the beta model, but not with the equally parsimonious but less powerful gamma model that assumes a fixed probability of 1/2 for 1 allele ibd. Additivity of loci on the liability scale is not disproven. A simple equivalence extends the beta model to multipoint analysis.
Resumo:
Ultra-low picomolar concentrations of the opioid antagonists naloxone (NLX) and naltrexone (NTX) have remarkably potent antagonist actions on excitatory opioid receptor functions in mouse dorsal root ganglion (DRG) neurons, whereas higher nanomolar concentrations antagonize excitatory and inhibitory opioid functions. Pretreatment of naive nociceptive types of DRG neurons with picomolar concentrations of either antagonist blocks excitatory prolongation of the Ca(2+)-dependent component of the action potential duration (APD) elicited by picomolar-nanomolar morphine and unmasks inhibitory APD shortening. The present study provides a cellular mechanism to account for previous reports that low doses of NLX and NTX paradoxically enhance, instead of attenuate, the analgesic effects of morphine and other opioid agonists. Furthermore, chronic cotreatment of DRG neurons with micromolar morphine plus picomolar NLX or NTX prevents the development of (i) tolerance to the inhibitory APD-shortening effects of high concentrations of morphine and (ii) supersensitivity to the excitatory APD-prolonging effects of nanomolar NLX as well as of ultra-low (femtomolar-picomolar) concentrations of morphine and other opioid agonists. These in vitro studies suggested that ultra-low doses of NLX or NTX that selectively block the excitatory effects of morphine may not only enhance the analgesic potency of morphine and other bimodally acting opioid agonists but also markedly attenuate their dependence liability. Subsequent correlative studies have now demonstrated that cotreatment of mice with morphine plus ultra-low-dose NTX does, in fact, enhance the antinociceptive potency of morphine in tail-flick assays and attenuate development of withdrawal symptoms in chronic, as well as acute, physical dependence assays.
Resumo:
Studio comparatistico Italia / UK in tema di colpevolezza di impresa. Uno studio della dimensione in action dei profili ascrittivi di responsabilità delle persone giuridiche.
Resumo:
A má avaliação do passivo judicial pode impactar de modo negativo as disponibilidades financeiras da organização, com consequencias para sua liquidez e para a continuidade das atividades operacionais. O presente trabalho teve como objetivo verificar se o reconhecimento, a mensuração e a evidenciação do Passivo Judicial Trabalhista atendem aos pressupostos da literatura contábil e do direito natural, no que toca ao conceito de fair value. No contexto metodológico, apresentou-se o arcabouço teórico-jurídico do reconhecimento, da mensuração e da evidenciação. Em seguida, dentre as empresas listadas nos segmentos Nível 1, Nível 2 e Novo Mercado da BM&FBovespa foram selecionadas, para a amostra, as 40 empresas com maior quantidade de ações em tramitação no TST. Foram analisadas as Notas Explicativas dessas companhias e verificou-se que, a maior parte não divulga informações alusivas à origem do passivo judicial trabalhista, à forma de mensuração das provisões, à quantidade de ações e ao cronograma de desembolsos. Assim, as práticas adotadas por tais empresas não estão em conformidade plena com os pressupostos da literatura contábil e do direito natural pois as determinações contábeis (CPC 25) tem sido observadas em sua forma menos ampla. Também foi constatado que há possibilidade de melhoria no processo de reconhecimento, mensuração e evidenciação eis que há boas práticas, pontuais, nas companhias examinadas que podem ser generalizadas para as demais.
Resumo:
Apesar de ser considerado um combustível sustentável, o etanol, produzido a partir da cana de açúcar, deixa um passivo de grandes proporções durante seu processo produtivo, a vinhaça, que vem sendo depositada nas próprias lavouras de cana de açúcar. É gerada na proporção de 12 litros para cada litro de etanol produzido em média, sendo rica em diversos nutrientes, os quais podem ser aproveitados para diversos fins como, por exemplo, meio de cultivo para microalgas. A presente pesquisa avaliou em uma primeira etapa a clarificação da vinhaça por um processo de coagulação com auxílio de um polímero catiônico, seguida de uma etapa de microfiltração tangencial em filtro de fibras ocas, o que permitiu uma redução superior a 77% para a cor aparente, de 99% para a turbidez e de 20% para a DQO, facilitando a utilização deste efluente para o cultivo de microalgas. Numa segunda etapa, foi avaliado o cultivo da microalga Chlorella vulgaris, em escala de bancada e operação em batelada, em meio preparado a partir da diluição da vinhaça em água de poço profundo, obtendo um aumento na biomassa produzida, determinado em termos de clorofila-a, em concentrações de vinhaça inferiores a 7,5% utilizando inóculo da ordem de 106 indivíduos. Tais dados permitiram a realização de ensaios de cultivo em escala contínua, com fotobiorreatores em escala piloto, gerando assim a biomassa utilizada nas próximas fases do estudo, que avaliaram a separação da biomassa gerada pelo processo de flotação por ar dissolvido. Os ensaios inicialmente realizados em escala de bancada e operados em batelada permitiram identificar as condições ótimas de operação, as quais foram então avaliadas em um flotador operando em fluxo contínuo. Tal flotador permitiu a obtenção de um lodo com teor de sólidos superior a 2%, o qual foi submetido à um processo final de desaguamento por centrifugação. Os ensaios de desaguamento, permitiram verificar que a utilização do mesmo polímero utilizado na etapa de clarificação permite a obtenção de um lodo mais estável, quando comparado com a não utilização de produto químico, na dosagem de polímero catiônico de 6 g.kg-1. A conclusão deste trabalho permitiu verificar a possibilidade de utilização da vinhaça como meio de cultivo de microalgas, reduzindo assim um dos impactos causados pela produção de etanol. Além disso foi possível verificar o potencial da FAD, para o espessamento de biomassa produzido em fotobiorreatores.
Resumo:
Estuda-se nesta tese o conteúdo jurídico do princípio da impessoalidade, previsto no art. 37, caput, da Constituição Federal de 1988, especificamente para fins de parametrização, controle e responsabilidade das decisões administrativas. Estruturam-se três eixos temáticos: a) noções introdutórias ideias de aproximação necessárias ao contexto e ao conceito do princípio da impessoalidade e do alcance de sua projeção nas decisões administrativas (póspositivismo e neoconstitucionalismo; constitucionalização; julgamento por princípios; relevância dos princípios; interesse público; direito administrativo como sistema; neutralidade política e a questão da justiça); b) impessoalidade no direito administrativo comprovação de que o princípio da impessoalidade ostenta arquétipo aberto para conferir maiores cobertura e proteção aos valores tutelados pelo texto constitucional, com ênfase à organização administrativa impessoal para assegurar um agir naturalmente impessoal (instrumentalização recíproca de princípios constitucionais; antecedentes históricos; direito estrangeiro; doutrina brasileira; impessoalidade na Constituição, nas leis e na jurisprudência; conceito de impessoalidade); c) impessoalidade nas decisões administrativas construção de um conceito de impessoalidade específico para as decisões administrativas, concebido desde a ideia de ponderação e conciliação de todos os interesses legítimos públicos e privados envolvidos em cada caso concreto (conceito e distinção de decisão administrativa impessoal em relação à decisão judicial imparcial; garantias e requisitos para a adoção de decisões impessoais, com destaque para os deveres de fundamentação (motivação), processualização e participação; algumas implicações de decisões impessoais [funcionário de fato; diminuição da discricionariedade; desvio de poder; motivação na dispensa de empregados públicos; responsabilidade civil extracontratual do Estado; necessidade de reconhecimento dos direitos dos administrados; nepotismo e revisitação da reformatio in pejus]; consequências da quebra da impessoalidade nas decisões administrativas [anulação; responsabilização do Estado e responsabilização do servidor] e, finalmente, técnicas para adoção de decisões administrativas impessoais).
Resumo:
O presente trabalho tem por objetivo aprofundar o regime jurídico disciplinar do servidor público temporário. Analisam-se as características principais dessa espécie de agente público que o diferenciam dos demais servidores e que justificam um regime disciplinar próprio. Em uma breve investigação sobre as prováveis origens do temporário, constata-se a presença desse servidor na Administração Pública brasileira desde 1823. No direito estrangeiro (particularmente, no direito francês e no direito português), verifica-se a existência de figuras assemelhadas ao servidor público temporário brasileiro, que é uma espécie de servidor público do gênero agente público, exercendo uma função pública, mas não ocupando nem cargo, nem emprego públicos, sendo contratado por tempo determinado para atender a necessidade temporária de excepcional interesse público. A Constituição Federal, em seu artigo 37, IX, indica que a lei estabelecerá os casos de contratação por tempo determinado, mas não há uma uniformidade entre os entes da federação sobre o regime jurídico adotado para o servidor temporário. Esta análise concentra-se na Lei Federal n.º 8.745/93, que disciplina o assunto. No âmbito federal, o servidor público temporário é dotado de um regime jurídico com características mais próximas do regime jurídico administrativo, sendo recrutado por meio de contrato administrativo assemelhado ao regime estatutário. Tal contratação deve pautar-se pela observância dos princípios da continuidade do serviço público, da moralidade, da impessoalidade, da razoabilidade, da proporcionalidade e da motivação. Focaliza-se a responsabilidade do servidor público temporário no âmbito administrativo, procurando-se demonstrar que tal servidor, por um princípio de equiparação, submete-se a um processo administrativo disciplinar para apuração de suas faltas, o qual cumpre prazos especiais e condições específicas em razão do vínculo temporário com a Administração Pública, em tudo sendo respeitado o devido processo legal, a ampla defesa e o contraditório. Analisam-se as diferenças entre o processo disciplinar do servidor temporário (sindicância) e o processo do servidor público em geral, os ritos adotados, os prazos, as penalidades e os recursos, constatando-se que o servidor público temporário responde pelos atos ilícitos em todas as esferas: penal, civil, administrativa e por atos de improbidade. A transitoriedade na função não o exime de responsabilidades, por isso, com as devidas adaptações, está sujeito aos ônus e bônus do serviço público. Daí a necessidade de construir, com base nas características próprias dessa espécie de servidor público, um regime adaptado às especificações do vínculo especial a que se submete o servidor público temporário. Propõe-se aqui um miniprocesso disciplinar ou um processo disciplinar especial, ou uma minissindicância ou uma sindicância especial, sui generis.
Resumo:
O estudo da responsabilidade civil dos administradores de companhias abertas na doutrina nacional trata usualmente dos deveres fiduciários, do ato regular de gestão e da teoria ultra vires, da culpa ou dolo do administrador, das ações ut universi e ut singuli e da solidariedade entre a responsabilidade do administrador e a da companhia. Poucos abordam as causas extintivas dessa responsabilidade, e raro são os que tratam da hipótese de exclusão de responsabilidade do artigo 159, § 6º, da Lei nº 6.404/76. Como a disciplina dos deveres fiduciários prevista na lei societária brasileira tem forte influência do Direito norte-americano, buscou-se na legislação, doutrina e jurisprudência daquele país os fundamentos necessários à melhor interpretação e aplicação da regra de exclusão e, em especial, na business judgment rule, doutrina que protege os administradores contra responsabilização por prejuízos à companhia decorrentes de decisões por eles adotadas, proteção esta também conferida pela hipótese do artigo 159, § 6º, da Lei nº 6.404/76, ao administrador leal e de boa-fé.
Resumo:
A aprovação da norma contábil IAS 41- Agriculture em 2001 trouxe uma série de desafios nas práticas contábeis das empresas, sendo a principal delas o reconhecimento de ganhos/perdas durante o crescimento biológico de um ativo e a mensuração destes ganhos/perdas pelo valor justo. Toda forma de reconhecimento e mensuração apresenta relação com o modelo de negócios da empresa e irá afetar o relacionamento entre os envolvidos neste contexto e a forma como os usuários da informação contábil avaliam a gestão dos recursos investidos na entidade, que é o stewardship. Desta forma o objetivo deste trabalho foi discutir quais e como os fatores internos e externos presentes no contexto social das organizações, contribuíram para que a informação contábil a valor justo atingisse o objetivo de stewardship. Para isto foi realizado um estudo etnográfico por meio de entrevistas direcionadas aos responsáveis pela informação contábil em onze empresas de diferentes segmentos do agronegócio. O modelo de analise primeiramente se ateve ao entendimento do Modelo de Mensuração dos ativos biológicos dentro destas empresas, e como esta informação é utilizada para fins de stewardship. Em três empresas, a informação contábil referente ao ativo biológico é utilizada para fins de avaliação de performance global e do gestor e para o relacionamento com o credor, que constituem elementos para a proxy do stewardship. O processo de mudança nestas empresas, analisado conforme modelo desenvolvido por Miller (1991) se deu primeiramente pela Problematização ocorrida no contexto social destas empresas, em que seu modelo de negócios tem a madeira como produto final, bem como no modelo de gestão que visa em primeiro lugar o retorno do capital investido, mensurado pela valorização da floresta ao longo dos anos. Os atores que agem para que isto se torne numa mudança efetiva, denominados de Comunidades Epistêmicas, são os acionistas e os credores destas empresas. Os acionistas que são fundos de investimentos têm que apresentar aos seus cotistas a valorização destes investimentos, e o credor (em uma das empresas) vincula a garantia dos empréstimos ao valor da floresta. Também atua neste processo de uma forma mais distante (Ação à Distância) a cultura dos fundos de investimentos, em que a gestora florestal é responsável pela formação e venda de novas áreas florestais, bem como a legislação específica da constituição destes fundos. Nas outras empresas, além de o ativo biológico ser um insumo de produção no modelo de negócios na maioria dos casos analisados, o modelo de gestão é baseado na eficiência operacional. Desta forma, a mensuração a ser utilizada deve ser relacionada tanto ao modelo de negócios como ao modelo de gestão da empresa, que são fatores que revelam como os ativos estão sendo geridos, e isto influencia na perspectiva de geração de caixa do negócio. Apesar da obrigatoriedade que uma norma contábil impõe, a prática contábil segue suas próprias leis no âmbito social que operam as empresas, e qualquer alteração imposta passa por um extenso processo de problematização antes de esta norma ser socialmente aceita.
Resumo:
O pressuposto desta pesquisa é de que a divulgação de informações ambientais, no âmbito das provisões e passivos contingentes, reagiu aos avanços na normatização contábil. A normatização contábil genérica sobre evidenciação de obrigações incertas era restrita, em meados de 1976, à Lei no 6.404, e assim permaneceu ao longo de pelo menos uma década e meia, quando começou a ser desenvolvida. Ao longo dos anos foram criados padrões obrigatórios de divulgação, com critérios de julgamento mais detalhados para a classificação da obrigação incerta em provável, possível ou remota. Embora ainda apresente algum grau de subjetividade, o desenvolvimento destes critérios pode ter contribuído para a diminuição da assimetria informacional: a empresa passou a contar com um conjunto de orientações mais claras e, portanto, com melhores condições de averiguar e divulgar suas obrigações incertas. Esse avanço contribuiu para que as obrigações ambientais passassem a ter maior exposição, principalmente no âmbito das empresas potencialmente poluidoras, como as do setor de energia elétrica, que utilizam recursos naturais e modificam o meio ambiente. Neste contexto, o objetivo deste estudo foi analisar as evidências de passivo ambiental divulgadas pelas empresas do setor de energia elétrica, de 1997 a 2014. Para tanto, foi desenvolvido um estudo qualitativo, descritivo e longitudinal, por meio da análise de conteúdo de 941 notas explicativas, de uma população de 64 empresas do setor de energia elétrica, de acordo com listagem na BM&FBovespa, em maio de 2015. A amostra foi constituída de 26 empresas, que divulgaram o total de 468 notas explicativas no site da CVM, de 1997 a 2014. Ao longo destes 18 anos, 14 empresas da amostra (53,85%) evidenciaram passivos ambientais ao menos uma vez e 12 instituições (46,15%) não o fizeram e, do total de 468 notas explicativas, 100 (21,37%) evidenciaram passivo ambiental. O número de evidências de passivos ambientais era pequeno em meados de 1997, mas ascendeu, com um aumento mais consistente a partir de 2006, ano que coincide com a aprovação da Norma e Procedimento de Contabilidade 22 - Provisões, Passivos, Contingências Passivas e Contingências Ativas, emitida pelo IBRACON. Adicionalmente, a materialidade quantitativa estava na média de 0,61% para provisões ambientais e 0,89% para os passivos contingentes ambientais, desconsiderando-se os outliers. A dimensão das notas explicativas, em termos de quantidade de palavras, foi crescente e diversificada. Em conclusão, a evidenciação contábil pode, em adição à evidenciação voluntária, ser um meio plausível para a divulgação de questões ambientais e redução da assimetria informacional, principalmente quando a normatização contábil se faz mais clara e detalhada.
Resumo:
Delaware sets the governance standards for most public companies. The ability to attract corporations could not be explained solely by the existence of a favorable statutory regime. Delaware was not invariably the first or the only state to implement management friendly provisions. Given the interpretive gaps in the statute and the critical importance of the common law in the governance process, courts played an outsized role in setting legal standards. The management friendly nature of the Delaware courts contributed significantly to the state’s attraction to public corporations. A current example of a management friendly trend in the case law had seen the recent decisions setting out the board’s authority to adopt bylaws under Section 109 of the Delaware General Corporation Law (DGCL), particularly those involving the shifting of fees in litigation against the corporation or its directors. The DGCL allows bylaws that address “the business of the corporation, the conduct of its affairs, and its rights or powers or the rights or powers of its stockholders, directors, officers or employees.” The broad parameters are, however, subject to limits. Bylaws cannot be inconsistent with the certificate of incorporation or “the law.” Law includes the common law. The Delaware courts have used the limitations imposed by “the law” to severely restrict the reach of shareholder inspired bylaws. The courts have not used the same principles to impose similar restraints on bylaws adopted by the board of directors. This can be seen with respect to bylaws that restrict or even eliminate the right of shareholders to bring actions against management and the corporation. In ATP Tour, Inc. v. Deutscher Tennis Bund the court approved a fee shifting bylaw that had littl relationship to the internal affairs of the corporation. The decision upheld the bylaw as facially valid.The decision ignored a number of obvious legal infirmities. Among other things, the decision did not adequately address the requirement in Section 109(b) that bylaws be consistent with “the law.” The decision obliquely acknowledged that the provisions would “by their nature, deter litigation” but otherwise made no effort to assess the impact of this deterrence on shareholders causes of action. The provision in fact had the practical effect of restricting, if not eliminating, litigation rights granted by the DGCL and the common law. Perhaps most significantly, however, the bylaws significantly limited common law rights of shareholders to bring actions against the corporation and the board. Given the high dismissal rates for these actions, fee shifting bylaws imposed a meaningful risk of liability on plaintiffs. Moreover, because judgments in derivative suits were paid to the corporation, shareholders serving as plaintiffs confronted the risk of liability without any offsetting direct benefit. By preventing suits in this area, the bylaw effectively insulated the behavior of boards from legal challenge. The ATP decision was poorly reasoned and overstepped acceptable boundaries. The management friendly decision threatened the preeminent role of Delaware in the development of corporate law. The decision raised the specter of federal intervention and the potential for meaningful competition from the states. Because the opinion examined the bylaw in the context of non-stock companies, the reasoning may remain applicable only to those entities and never make the leap to for-profit stock corporations. Nonetheless, the analysis reflects a management friendly approach that does not adequately take into account the impact of the provision on the rights of shareholders.