365 resultados para Propensão Empreendedora
Resumo:
Las piezas pretensadas de hormigón presentan zonas muy solicitadas correspondientes a la zona de transferencia. En muchos casos se ha detectado figuración en tales zonas cuyo origen está ligado a la transferencia de la fuerza de pretensado, pudiendo llegar a causar el rechazo de la pieza. En el caso de las piezas prefabricadas con armaduras pretesas adherentes, no siempre es posible disponer armado transversal para controlar esta fisuración, ya sea por el proceso constructivo, ya sea por disponer en general de secciones transversales muy optimizadas. Recientemente se desarrolló una nueva tipología de piezas de hormigón prefabricado para forjados unidireccionales pretensadas con armadura activa pretesa y sin armadura transversal. La tipología se asimila a una sección en PI invertida, con alas de gran envergadura en comparación con el ancho de nervio, y armadura activa distribuida en las alas. Este diseño parece propenso a la aparición de fisuración en el momento de la transferencia del pretensado. Así, se han producido fallos de carácter frágil: colapso de piezas ya colocadas en obra, separándose la losa inferior de los nervios y cayendo sobre el piso. Las herramientas de análisis usuales han resultado inútiles al aplicarse a la investigación de esta patología. Para afrontar el estudio de los problemas detectados en la tipología, se ha analizado el fenómeno de las tensiones de tracción en la zona de transferencia, usualmente denominadas exfoliación y estallido, así como los métodos de análisis aplicables a elementos pretesos sin armadura transversal. En algunas ocasiones se trata del resultado de trabajos desarrollados para piezas postesadas, o para calcular cuantías de armadura transversal, adaptados a posteriori. También existen métodos desarrollados específicamente para piezas pretesas sin armadura transversal. Junto a los factores considerados en los métodos existentes se han localizado otros, no tenidos en cuenta habitualmente, pero que pueden ser determinantes en piezas no convencionales, como son: la existencia de pretensado superior e inferior, la falta de simetría de la sección transversal, el ancho variable de las piezas, una relación entre el ancho del ala y el espesor de los nervios elevada, la distribución transversal del pretensado en relación al ancho variable. Además, la mayoría de los métodos se han basado en simplificaciones bidimensionales. Para tener en cuenta la influencia de estos factores, se han modelizado piezas en las que varían tanto la geometría de la sección transversal y la cuantía de pretensado, como la ley de adherencia o la distribución de armadura activa en la sección. Estos modelos se han analizado mediante el método de elementos finitos, efectuándose u análisis elástico lineal tridimensional. En general, los métodos existentes no han predicho adecuadamente las tensiones obtenidas mediante elementos finitos. Sobre los resultados obtenidos por elementos finitos se ha desarrollado un ajuste experimental, que presentan un alto grado de correlación y de significación, así como una reducida dispersión y error relativo. En consecuencia, se propone un método de obtención de la tensión máxima de exfoliación, consistente en varias ecuaciones, que tienen en cuenta las peculiaridades de la configuración de las piezas citadas y permiten considerar cualquier ley de adherencia, manteniendo la coherencia con la longitud de transmisión. Las ecuaciones se emplean para la obtención de la tensión máxima de exfoliación en piezas de la tipología estudiada cuya armadura activa se sitúe fuera del núcleo central de la sección transversal. Respecto al estallido, se propone una modificación de los métodos existentes que, comparado con los resultados del análisis por elementos finitos, mejora el valor medio y la dispersión a valores admisibles y del lado de la seguridad. El método considera la geometría de la sección y la distribución del pretensado en la losa inferior. Finalmente, se ofrecen estrategias de diseño para piezas de la tipología o semejantes. End zones of prestressed concrete members are highly stressed. Cracking have often appeared at end zone, and its beginning is related to prestress release. Some members become rejected because of these cracks. Sometimes it is not possible having transverse reinforcement in order to control cracking, when referring to pretensioned precast members. The reason may be the construction process or highly optimized crosssections. A new typology of precast concrete members designed for one-way composite floors was recently developed. The members, without transverse reinforcement, are prestressed with pretensioned wires or strands. This typology is similar to an inverted TT slab, with a large flange related to the web thickness and prestressing reinforcement spread across the flange. This design is highly susceptible to appear cracking at prestress release. Therefore, brittle failures have been reported: fail of slabs laid in place on a construction site, resulting in the separation of the flange from the webs,, and the subsequent fall on the lower floor. Usual analytical methods have been useless to study the failure. End zone tensile stresses have been analysed to study the detected typology problems. These tensile stresses are usually called spalling and bursting (also called splitting in the U.S.). Analysis methods applicable to pretensioned members without transverse reinforcement have been analysed too. Some methods were originally developed for postensioned concrete or for obtaining the amount of transverse reinforcement. In addition, there are methods developed specifically for pretensioned members without transverse reinforcement. Some factors, frequently ignored, have been found, such as lower and upper prestress, lack of symmetry in the cross section, variable width, a high ratio between flange width and web thickness or prestressing reinforcement location related to variable width. They can play a decisive role in non-conventional members. In addition, most methods are based on 2D simplifications. Finite Element modelling has been conducted in order to consider the influence of these factors. A linear 3D approach has been used. The modelled members vary according to cross section geometry, bond behaviour, or prestressing reinforcement location. In general, the obtained tensile stresses don’t agree with existing methods. An experimental adjustment has been conducted on the obtained results, with a high correlation ratio and significance level as well as a low dispersion and relative error. Therefore, a method to obtain the maximum spalling stress is proposed. The proposal consists on some equations that consider the special features of the typology and bond behaviour. Consistency between transmission length and bond behaviour is considered too. The equations are used to calculate maximum spalling stress for the studied typology members whose prestressing reinforcement is located out of the core of the cross section. In relation to bursting, a modification of existing methods is proposed. Compared to finite element results, the proposal improves mean value and dispersion, whose ranges are considered acceptable and secure. The method takes into account cross section geometry and location of prestressing reinforcement across the lower flange. Finally, strategies to design members of this typology or similar are proposed.
Resumo:
El territorio chileno esta propenso, desde antes que se constituyera como nación, al impacto del comportamiento de la naturaleza que le es inherente y que también le produce daños. Está representado en los seísmos, los más dañinos. Todavía, la sociedad chilena no termina de comprender que esos daños, son parte de un desequilibrio de una convivencia armoniosa entre ella y esa naturaleza, puesto que el ser humano que vive y habita sobre ella, también lo es. Así entonces, cada vez que el territorio y su espacio son remecidos por los seísmos, la naturaleza, manifestada en la sociedad, adquiere nuevos aprendizajes para mejorar la respuesta al próximo evento. El terremoto 2010 de 8.8° Richter, fue el segundo de mayor magnitud después del otro que hasta ahora, es el más grande del planeta, y que pudo ser medido. Aquel, fue el terremoto de Valdivia de 9,5° Richter, ocurrido el 22 de mayo de 1960. Las sociedades no son estáticas, cambian, son dinámicas. Esta vez el seísmo del 2010, ocurrió en una sociedad que hace ya 35 años, adoptó un modelo de economía de libre mercado. La pobreza que tenía a 1990, era de aproximadamente, un 40%. La del 2010, de un 14%. Durante la dictadura militar hubo otro seísmo de 7,8° Richter, recién instalándose el modelo aludido. El del 2010, permite sacar conclusiones en el contexto de este modelo económico. Los resultados aparentemente son interesantes en cuanto a que hubo pocas víctimas pero por otra parte, hubo un gran daño económico. La tesis profundiza en el impacto del seísmo en la dimensión del parque habitacional construido y de la vivienda social y en los habitantes más pobres y vulnerables. Es la primera investigación sobre seísmos y vivienda social en Chile. Se asume la hipótesis que ciertas variables por una parte, y una cultura antisísmica por otra, están presentes y han penetrado en los sectores populares durante los últimos 50 años y que ello, podría estar en la base de los resultados obtenidos. Se plantea una suerte de “matrimonio bien avenido” entre el habitante y políticas públicas en vivienda. De ello, se derivan recomendaciones para mejorar los avances en el problema investigado que se contextualizan en referencia al marco teórico elaborado. Sin embargo, y no obstante lo investigado, lo ya avanzado no garantiza buenos resultados en el próximo evento, Por ello, los aprendizajes nutren a otros, nuevos, que acompañarán a la sociedad chilena en su esencia e identidad como nación. ABSTRACT Long before its establishment as an independent nation, the Chilean territory has been prone to the impact of nature, which is an inherent and damaging feature of this land. Such an impact is represented by earthquakes, which are regarded as the most damaging natural disasters. Today, the Chilean society is still unable to understand that these impacts are part of an unbalanced coexistence between individuals and nature since human beings, who live and inhabit this space, are also an element of nature. Therefore, each time this territory is hit by earthquakes, nature —represented by society— learns new lessons in order to provide a better response to future events. The 2010 earthquake, which rated 8.8 on the Richter scale, was the second largest earthquake after the most powerful earthquake ever recorded. Such an event was the Valdivia earthquake of May 22, 1960, which rated 9.5 on the Richter scale. Societies are not static as they are changing and dynamic. The 2010 earthquake took place within a context in which society operated under a free market economy model that had been running for 35 years. As of 1990, 40 per cent of the population lived in poverty; in 2010, such a figure was reduced to 14 per cent. Likewise, a magnitude 7.8 quake struck the country during the military regime period in the early days of the above model. The 2010 earthquake allows us to draw some conclusions within the context of this economic model. Results are interesting since there were few fatalities but significant economic loss. This thesis provides insights into the impact of the 2010 earthquake on the housing stock, social housing and those living in poverty and vulnerability. This is the first research on earthquakes and social housing conducted in Chile. The hypothesis is that certain variables and anti-seismic culture have permeated popular segments of the population over the last 50 years. The latter may be at the basis of the results obtained during this research. Likewise, this study proposes a certain “happy marriage” between the inhabitant and public policies on housing. The above offers some recommendations intended to further explore this issue; these suggestions are contextualized according to the theoretical framework developed in this research. However, current progress on this matter does not ensure positive results in the event of an earthquake. This is why these lessons will serve as models for future events, which are intrinsically tied to local society and Chilean identity.
Resumo:
El propósito de esta tesis es presentar una metodología para realizar análisis de la dinámica en pequeña señal y el comportamiento de sistemas de alimentación distribuidos de corriente continua (CC), formados por módulos comerciales. Para ello se hace uso de un método sencillo que indica los márgenes de estabilidad menos conservadores posibles mediante un solo número. Este índice es calculado en cada una de las interfaces que componen el sistema y puede usarse para obtener un índice global que indica la estabilidad del sistema global. De esta manera se posibilita la comparación de sistemas de alimentación distribuidos en términos de robustez. La interconexión de convertidores CC-CC entre ellos y con los filtros EMI necesarios puede originar interacciones no deseadas que dan lugar a la degradación del comportamiento de los convertidores, haciendo el sistema más propenso a inestabilidades. Esta diferencia en el comportamiento se debe a interacciones entre las impedancias de los diversos elementos del sistema. En la mayoría de los casos, los sistemas de alimentación distribuida están formados por módulos comerciales cuya estructura interna es desconocida. Por ello los análisis presentados en esta tesis se basan en medidas de la respuesta en frecuencia del convertidor que pueden realizarse desde los terminales de entrada y salida del mismo. Utilizando las medidas de las impedancias de entrada y salida de los elementos del sistema, se puede construir una función de sensibilidad que proporciona los márgenes de estabilidad de las diferentes interfaces. En esta tesis se utiliza el concepto del valor máximo de la función de sensibilidad (MPC por sus siglas en inglés) para indicar los márgenes de estabilidad como un único número. Una vez que la estabilidad de todas las interfaces del sistema se han evaluado individualmente, los índices obtenidos pueden combinarse para obtener un único número con el que comparar la estabilidad de diferentes sistemas. Igualmente se han analizado las posibles interacciones en la entrada y la salida de los convertidores CC-CC, obteniéndose expresiones analíticas con las que describir en detalle los acoplamientos generados en el sistema. Los estudios analíticos realizados se han validado experimentalmente a lo largo de la tesis. El análisis presentado en esta tesis se culmina con la obtención de un índice que condensa los márgenes de estabilidad menos conservativos. También se demuestra que la robustez del sistema está asegurada si las impedancias utilizadas en la función de sensibilidad se obtienen justamente en la entrada o la salida del subsistema que está siendo analizado. Por otra parte, la tesis presenta un conjunto de parámetros internos asimilados a impedancias, junto con sus expresiones analíticas, que permiten una explicación detallada de las interacciones en el sistema. Dichas expresiones analíticas pueden obtenerse bien mediante las funciones de transferencia analíticas si se conoce la estructura interna, o utilizando medidas en frecuencia o identificación de las mismas a través de la respuesta temporal del convertidor. De acuerdo a las metodologías presentadas en esta tesis se puede predecir la estabilidad y el comportamiento de sistemas compuestos básicamente por convertidores CC-CC y filtros, cuya estructura interna es desconocida. La predicción se basa en un índice que condensa la información de los márgenes de estabilidad y que permite la obtención de un indicador de la estabilidad global de todo el sistema, permitiendo la comparación de la estabilidad de diferentes arquitecturas de sistemas de alimentación distribuidos. ABSTRACT The purpose of this thesis is to present dynamic small-signal stability and performance analysis methodology for dc-distributed systems consisting of commercial power modules. Furthermore, the objective is to introduce simple method to state the least conservative margins for robust stability as a single number. In addition, an index characterizing the overall system stability is obtained, based on which different dc-distributed systems can be compared in terms of robustness. The interconnected systems are prone to impedance-based interactions which might lead to transient-performance degradation or even instability. These systems typically are constructed using commercial converters with unknown internal structure. Therefore, the analysis presented throughout this thesis is based on frequency responses measurable from the input and output terminals. The stability margins are stated utilizing a concept of maximum peak criteria, derived from the behavior of impedance-based sensitivity function that provides a single number to state robust stability. Using this concept, the stability information at every system interface is combined to a meaningful number to state the average robustness of the system. In addition, theoretical formulas are extracted to assess source and load side interactions in order to describe detailed couplings within the system. The presented theoretical analysis methodologies are experimentally validated throughout the thesis. In this thesis, according to the presented analysis, the least conservative stability margins are provided as a single number guaranteeing robustness. It is also shown that within the interconnected system the robust stability is ensured only if the impedance-based minor-loop gain is determined at the very input or output of each subsystem. Moreover, a complete set of impedance-type internal parameters as well as the formulas according to which the interaction sensitivity can be fully explained and analyzed, is provided. The given formulation can be utilized equally either based on measured frequency responses, time-domain identified internal parameters or extracted analytic transfer functions. Based on the analysis methodologies presented in this thesis, the stability and performance of interconnected systems consisting of converters with unknown internal structure, can be predicted. Moreover, the provided concept to assess the least conservative stability margins enables to obtain an index to state the overall robust stability of distributed power architecture and thus to compare different systems in terms of stability.
Resumo:
A metacognição é processo conceituado como o julgamento que um organismo (humano ou não humano) faz sobre seu próprio saber ou não saber. Há relatos de pesquisas sobre esse processo com seres humanos e diversas espécies de não humanos. Poucos estudos, porém, discutem a ocorrência de metacognição em ratos, e os resultados são controversos, em função de questionamentos sobre os procedimentos experimentais empregados. Este estudo teve o objetivo de investigar o efeito da manipulação de diferentes proporções de reforço produzidas em duas alternativas, sendo uma probabilística e outra com reforçamento contínuo, sobre o desempenho de ratos em uma tarefa de discriminação de diferentes durações de estímulos sonoros. O procedimento empregado é uma adaptação do utilizado por Foote e Crystal (2007), que investigou a ocorrência de metacognição em ratos. Foram utilizados cinco ratos machos, da linhagem Wistar (Rattus norvegicus) mantidos a 80% de seu peso ad libitum. O aparato utilizado foi um labirinto em Ey. O procedimento consistiu de quatro fases: 1) Treino exploratório no braço em Y, no qual o animal foi exposto a alternativas que continham seis pelotas de ração; 2) Treino de discriminação de estímulos sonoros, no qual foram treinadas duas discriminações condicionais com duas durações de estímulo sonoro, uma curta (2s), e uma longa (8s), cada uma correlacionada com a escolha de uma das portas do braço em Y; 3) Treino exploratório no braço em I, no qual os animais foram expostos a uma alternativa livre, que continha três pelotas de ração; e 4) Fase de Teste, na qual foram apresentadas diferentes durações de som (2.00, 2.44, 2.97, 3.62, 4.42, 5.38, 6.56 e 8.00s), a partir das quais o animal poderia escolher entre o braço em Y (fazer o teste), e receber seis pelotas de ração caso escolhesse a porta correta (correlacionada à duração curta ou longa), ou escolher a alternativa de recusa do teste, produzindo, com certeza, a quantidade de ração estabelecida pela condição em vigor. Foi analisada a porcentagem de escolhas realizadas pelos animais nos braços Y e I em cada condição, assim como a relação entre a porcentagem de acertos e erros nos testes e recusa, para cada duração de som. Todos os sujeitos atingiram o critério de aprendizagem estabelecido na fase de treino. Na fase de testes, observou-se que o som deixou de exercer controle sobre a resposta de escolha de todos os animais. À medida que a proporção de reforço variou na alternativa de recusa, os animais alteraram o padrão de escolha, de propensão para aversão ao risco, de acordo com a condição em vigor. A escolha por uma alternativa não se mostrou sob controle da acurácia dos animais em discriminar as durações dos estímulos apresentados, mas sim da proporção e probabilidade do reforço em cada alternativa. Discute-se a necessidade de se recorrer ao conceito de metacognição para descrever o desempenho dos animais em tarefas como a empregada no presente estudo.
Resumo:
Com o escopo de fornecer subsídios para compreender como o processo de colaboração científica ocorre e se desenvolve em uma instituição de pesquisas, particularmente o IPEN, o trabalho utilizou duas abordagens metodológicas. A primeira utilizou a técnica de análise de redes sociais (ARS) para mapear as redes de colaboração científica em P&D do IPEN. Os dados utilizados na ARS foram extraídos da base de dados digitais de publicações técnico-científicas do IPEN, com o auxílio de um programa computacional, e basearam-se em coautoria compreendendo o período de 2001 a 2010. Esses dados foram agrupados em intervalos consecutivos de dois anos gerando cinco redes bienais. Essa primeira abordagem revelou várias características estruturais relacionadas às redes de colaboração, destacando-se os autores mais proeminentes, distribuição dos componentes, densidade, boundary spanners e aspectos relacionados à distância e agrupamento para definir um estado de redes mundo pequeno (small world). A segunda utilizou o método dos mínimos quadrados parciais, uma variante da técnica de modelagem por equações estruturais, para avaliar e testar um modelo conceitual, apoiado em fatores pessoais, sociais, culturais e circunstanciais, para identificar aqueles que melhor explicam a propensão de um autor do IPEN em estabelecer vínculos de colaboração em ambientes de P&D. A partir do modelo consolidado, avaliou-se o quanto ele explica a posição estrutural que um autor ocupa na rede com base em indicadores de ARS. Nesta segunda parte, os dados foram coletados por meio de uma pesquisa de levantamento com a utilização de um questionário. Os resultados mostraram que o modelo explica aproximadamente 41% da propensão de um autor do IPEN em colaborar com outros autores e em relação à posição estrutural de um autor na rede o poder de explicação variou entre 3% e 3,6%. Outros resultados mostraram que a colaboração entre autores do IPEN tem uma correlação positiva com intensidade moderada com a produtividade, da mesma forma que, os autores mais centrais na rede tendem a ampliar a sua visibilidade. Por fim, vários outros indicadores estatísticos bibliométricos referentes à rede de colaboração em P&D do IPEN foram determinados e revelados, como, a média de autores por publicação, média de publicações por autores do IPEN, total de publicações, total de autores e não autores do IPEN, entre outros. Com isso, esse trabalho fornece uma contribuição teórica e empírica aos estudos relacionados à colaboração científica e ao processo de transferência e preservação de conhecimento, assim como, vários subsídios que contribuem para o contexto de tomada de decisão em ambientes de P&D.
Resumo:
This research proposes a methodology to improve computed individual prediction values provided by an existing regression model without having to change either its parameters or its architecture. In other words, we are interested in achieving more accurate results by adjusting the calculated regression prediction values, without modifying or rebuilding the original regression model. Our proposition is to adjust the regression prediction values using individual reliability estimates that indicate if a single regression prediction is likely to produce an error considered critical by the user of the regression. The proposed method was tested in three sets of experiments using three different types of data. The first set of experiments worked with synthetically produced data, the second with cross sectional data from the public data source UCI Machine Learning Repository and the third with time series data from ISO-NE (Independent System Operator in New England). The experiments with synthetic data were performed to verify how the method behaves in controlled situations. In this case, the outcomes of the experiments produced superior results with respect to predictions improvement for artificially produced cleaner datasets with progressive worsening with the addition of increased random elements. The experiments with real data extracted from UCI and ISO-NE were done to investigate the applicability of the methodology in the real world. The proposed method was able to improve regression prediction values by about 95% of the experiments with real data.
Resumo:
A literatura acadêmica sobre o comportamento do investidor financeiro é bastante escassa. A pesquisa sobre o processo de decisão, em geral, aborda tradeoffs na aquisição de produtos e pouco se discute o processo de decisão de investimento. Esta tese pretende contribuir para a redução deste gap ao discutir fatores determinantes para a tomada de decisão do investidor pessoal em produtos financeiros. A decisão de investimento é complexa, envolve, entre outros, o tradeoff entre renunciar o consumo presente pela possibilidade de maior bem estar no futuro. Adicionalmente, em muitas situações, existe possibilidade real de perda dos recursos financeiros investidos. Para investigar os percursos desta decisão foram realizadas entrevistas em profundidade com executivos ligados ao setor de fundos de investimento e ao de distribuição de produtos de investimento dos maiores bancos brasileiros atuantes no segmento de varejo. Os conhecimentos recolhidos e a revisão de literatura efetuada subsidiaram a elaboração do questionário de pesquisa aplicado em plataforma web junto a potenciais investidores. Os atributos rentabilidade, possibilidade de perda (proxy de risco), liquidez, taxa de administração e recomendação do gerente foram identificados como os mais relevantes para a decisão do investidor. Para construção dos estímulos e decomposição da utilidade da decisão foi utilizada a técnica conjoint based choice (CBC) que simula uma decisão real. Os resultados apontaram ser a recomendação do gerente o atributo mais importante para a formação da preferência por uma alternativa de investimento, resultado que, por si só, indica que fatores não racionais exercem influência na decisão. Estudou-se, então, o impacto da aversão ao risco e do estilo cognitivo do investidor. Os resultados denotam que os mais avessos e os mais intuitivos são mais suscetíveis à recomendação do gerente, mas que seus efeitos são independentes entre si. As evidências sugerem que os mais intuitivos utilizam o gerente para alcançar conforto cognitivo na decisão e que os mais avessos para mitigar a sensação de risco associada ao produto. Uma análise de cluster indicou ser possível segmentar a amostra em dois grupos, um mais propenso à recomendação do gerente e outro aos atributos do produto. A recomendação do gerente mostrou ser o atributo mais forte na distinção dos grupos. Os resultados indicam que uma segmentação de mercado baseada na propensão à recomendação do gerente pode ser efetiva para direcionar a construção de uma estratégia de relacionamento que busque incrementar os resultados de longo prazo.
Resumo:
Dissertação para obtenção do grau de Mestre no Instituto Superior de Ciências da Saúde Egas Moniz
Resumo:
Ao submeter uma solução aquosa de 5-nitro-2-furaldeído (NFA) a fotólise com impulsos de luz de curta duração (produzidos por um laser de estado sólido de Nd-YAG) origina-se uma absorvância (transiente) de curta duração que é atribuída à absorção de luz pelo NFA no estado tripleto mais baixo (3NFA*). O espectro desta absorção de luz apresenta um λmax = 475 ± 5 nm, que se mostrou ser insensível à polaridade do solvente. Em solução aquosa, a absorção do 3NFA* decai para uma absorção transiente de tempo de vida mais longo e que, medida em tempos diferentes (depois do fim do impulso), revelou ser devida a um radical furiloxilo (a de λmax ≈ 375 nm) e ao anião radical NFA•‒ (a de λmax ≈ 400 nm). Estes dois radicais foram gerados independentemente um do outro, o que permitiu confirmar a atribuição daquela absorção de longo tempo de vida (obtida na fotólise de NFA em água) aos radicais furiloxilo e anião radical do NFA. O tempo de vida (τ) do 3NFA* revelou uma dependência em relação à natureza do solvente e à concentração de NFA no estado fundamental. Da propensão do 3NFA* para abstrair um átomo de hidrogénio de solventes (com átomos de H abstraíveis) concluiu-se a natureza (n, π*) do estado tripleto de menor energia do NFA. A dependência de τ em relação à concentração de NFA (no estado fundamental) forneceu evidência cinética em favor da formação de um excímero tripleto que supostamente se dissocia em iões radicais (catião e anião) como é proposto no mecanismo de auto-supressão do 3NFA* por transferência de electrão. O efeito da acididade sobre τ corrobora o mecanismo de auto-supressão por transferência de electrão. A análise cromatográfica e espectroscópica da solução fotolisada de NFA em água permitiu identificar a 5-hidroximetileno-2(5H)-furanona, o ião nitrito e uma substância desconhecida de tR 3.69 minutos como os fotoprodutos maioritários. Apresenta-se evidência conclusiva de que a 5-hidroximetileno-2(5H)-furanona provém do radical furiloxilo. Mostra-se que a substância desconhecida também pode ser obtida na foto-redução de NFA em propan-2-ol e na redução química de NFA por Fe (s) em água (em ambas, conjuntamente com produção de 5-amino-2-furaldeído). Com base na análise por espectroscopia de absorção de RMN de 1H e de 13C (com 2-D HMQC) e vibracional por FT no infravermelho médio, discute-se a possível estrutura da substância de tR 3.69 minutos obtida como um produto da foto-redução de NFA em água. Experiências de sensibilização e supressão do 3NFA* permitiram obter a energia de excitação do estado tripleto como 238 ± 2 kJ mol-1 o que, conjuntamente com o potencial de redução monoelectrónica (E71) do NFA fornece E71 (3NFA* / NFA•‒) = 2.26 V vs. SHE para o potencial de redução monoelectrónica do 3NFA* em solução aquosa neutra. Mostra-se que os aniões inorgânicos (usados como nucleófilos) são mono-oxidados pelo 3NFA* (como é indicado pela observação de NFA•‒ e do radical inorgânico) com constantes de velocidade de segunda-ordem (
Resumo:
No estudo da economia, há diversas situações em que a propensão de um indivíduo a tomar determinada ação é crescente na quantidade de outras pessoas que este indivíduo acredita que tomarão a mesma ação. Esse tipo de complementaridade estratégica geralmente leva à existência de múltiplos equilíbrios. Além disso, o resultado atingido pelas decisões decentralizadas dos agentes pode ser ineficiente, deixando espaço para intervenções de política econômica. Esta tese estuda diferentes ambientes em que a coordenação entre indivíduos é importante. O primeiro capítulo analisa como a manipulação de informação e a divulgação de informação afetam a coordenação entre investidores e o bem-estar em um modelo de corridas bancárias. No modelo, há uma autoridade reguladora que não pode se comprometer a revelar a verdadeira situação do setor bancário. O regulador observa informações idiossincráticas dos bancos (através de um stress test, por exemplo) e escolhe se revela essa informação para o público ou se divulga somente um relatório agregado sobre a saúde do sistema financeiro como um todo. O relatório agregado pode ser distorcido a um custo – um custo mais elevado significa maior credibilidade do regulador. Os investidores estão cientes dos incentivos do regulador a esconder más notícias do mercado, mas a manipulação de informação pode, ainda assim, ser efetiva. Se a credibilidade do regulador não for muito baixa, a política de divulgação de informação é estado-contingente, e existe sempre um conjunto de estados em que há manipulação de informação em equilíbrio. Se a credibilidade for suficientemente baixa, porém, o regulador opta por transparência total dos resultados banco-específicos, caso em que somente os bancos mais sólidos sobrevivem. Uma política de opacidade levaria a uma crise bancária sistêmica, independentemente do estado. O nível de credibilidade que maximiza o bem-estar agregado do ponto de vista ex ante é interior. O segundo e o terceiro capítulos estudam problemas de coordenação dinâmicos. O segundo capítulo analisa o bem-estar em um ambiente em que agentes recebem oportunidades aleatórias para migrar entre duas redes. Os resultados mostram que sempre que a rede de pior qualidade (intrínseca) prevalece, isto é eficiente. Na verdade, um planejador central estaria ainda mais inclinado a escolher a rede de pior qualidade. Em equilíbrio, pode haver mudanças ineficientes que ampliem a rede de qualidade superior. Quando indivíduos escolhem entre dois padrões ou redes com níveis de qualidade diferentes, se todos os indivíduos fizessem escolhas simultâneas, a solução eficiente seria que todos adotassem a rede de melhor qualidade. No entanto, quando há fricções e os agentes tomam decisões escalonadas, a solução eficiente difere ix do senso comum. O terceiro capítulo analisa um problema de coordenação dinâmico com decisões escalonadas em que os agentes são heterogêneos ex ante. No modelo, existe um único equilíbrio, caracterizado por thresholds que determinam as escolhas para cada tipo de agente. Apesar da heterogeneidade nos payoffs, há bastante conformidade nas ações individuais em equilíbrio. Os thresholds de diferentes tipos de agentes coincidem parcialmente contanto que exista um conjunto de crenças arbitrário que justifique esta conformidade. No entanto, as estratégias de equilíbrio de diferentes tipos nunca coincidem totalmente. Além disso, a conformidade não é ineficiente. A solução eficiente apresentaria estratégias ainda mais similares para tipos distintos em comparação com o equilíbrio decentralizado.
Resumo:
O presente estudo visa à análise da relação entre as capacidades, conforme definidas por Brinkerhoff (2010), e a performance das Cortes de Contas brasileiras. As capacidades no atual estudo se referem à quantidade de funcionários de cada Tribunal de Contas, seu orçamento, percentual de servidores do seu quadro efetivo e cumprimento das normas constitucionais quanto a sua formação. A performance foi medida pelas variáveis: “Produtividade”, ou o número de processos julgados ou apreciados pelos Ministros ou Conselheiros; “Iniciativa”, ou seja, quantidade de fiscalizações in loco realizadas; “Valor das multas e débitos imputados”, entendidas como a propensão a punir das Cortes de Contas; e “Grau de rejeição das contas de governo”, que é definida como a razão do número de pareceres prévios rejeitando as contas de governo pelo total de pareceres emitidos. A atual pesquisa parte do estudo de Melo, Pereira e Figueiredo (2009) - que identifica diversas relações entre a estrutura dos Tribunais de Contas e sua atuação - propondo novas variáveis para uma análise mais ampla e real da performance das Cortes de Contas. As hipóteses do estudo foram testadas por meio de regressão estatística utilizando o método de mínimos quadrados. Os dados foram coletados diretamente dos Tribunais de Contas. Os testes realizados confirmaram que a quantidade de recursos humanos de cada Corte influencia positivamente todas as variáveis de performance referidas anteriormente, e que quanto maior o orçamento de cada Tribunal maior sua produtividade, sua iniciativa e o valor das multas e débitos imputados. O presente estudo também comprovou que quanto maior o percentual de servidores do quadro efetivo da Corte de Contas, maior é sua produtividade, o que corrobora as teorias de Evans (2004). A partir dos dados coletados na pesquisa, foi possível verificar que o percentual médio de servidores efetivos nas Corte de Contas é de 69% enquanto nas Cortes Judiciárias esse percentual é de 89%. Isso mostra que há bastante margem para aumento da produtividade dos órgãos de contas. Conclui-se que quanto mais recursos financeiros e humanos disponíveis, e quanto maior o percentual de servidores concursados, mais os Tribunais de Contas são produtivos, sancionadores e proativos.
Resumo:
O empreendedorismo tem sido um tema recorrente no mundo corporativo e acadêmico. Porém, o comportamento, as escolhas e os aspectos que formam o empreendedor ainda são questões emergentes na universidade. Desse modo, o objetivo dessa dissertação é discutir esses pontos e avançar sobre questões referentes às escolhas profissionais ao longo de uma carreira empreendedora. Para isso, foi desenvolvida uma régua de classificação que posicionou os estudantes de pós-graduação da Fundação Armando Álvares Penteado nas seguintes categorias: (1) empreendedores internos; (2) tendência a empreendedor interno; (3) tendência a empreendedor externo; e (4) empreendedor externo. O resultado dessa dissertação é a validação desta régua bem como uma classificação da tendência empreendedora dos pesquisados, destacando-se alunos com tendência empreendedora externa e interna respectivamente.(AU)
Resumo:
O empreendedorismo é um conceito cada vez mais presente nas organizações empresariais ou nos sistemas educacionais, assumindo um destaque incremental no debate público no que concerne ao futuro das políticas económicas para a competitividade, no âmbito da economia do conhecimento e da sociedade da informação. A sua pertinência instigou o seu estudo nas suas diferentes valências, agudizada pela crise estrutural do capital. Este trabalho visa a análise do conceito empreendedorismo, assente na caracterização do perfil comportamental do empreendedor e na identificação do seu papel nas organizações. Anui-se uma relação estreita entre o conceito de empreender e a descoberta profícua de oportunidades, que se fundeiam num espírito de mudança e inovação, central ao empreendedor. A competitividade afigura-se como uma premissa basilar na criação de valor e no progresso sustentável das organizações. O desafio consiste na mudança de paradigmas ao nível de: i) modelos de desenvolvimento, pela valoração do conhecimento e tecnologia em detrimento da dependência de recursos físicos e financeiros; e ii) fomentação da audácia e consolidação de uma cultura em inovação, competitividade e mudança. A intrínseca aliança do empreendedorismo-inovação assevera-se como fator crítico de desenvolvimento, dependente do perfil comportamental do indivíduo, líder, empreendedor. Essa dependência não imiscui a preponderância da formação para o empreendedorismo, que deve instigar e promover as competências vitais à criação inovadora e sustentável de novos empreendimentos. O estudo desenvolvido no âmbito do empreendedorismo permite asseverar uma dissimilitude de conceitos e aceções, alicerçados em evidências empíricas e científicas ainda exíguas. O trabalho perscrutado objetiva primordialmente uma maior sensibilização das comunidades organizacionais e académicas a esta temática que permita contribuir para uma compreensão mais abrangente e atual da sua relevância no seio das organizações, que vivenciam uma mudança de paradigma nas suas múltiplas dimensões. Esta mudança de paradigma insurge-se num contexto situacional económico-financeiro estrutural e globalmente debilitado, em que se assevera a premência do progresso sustentável das organizações aliada à pertinência do fator diferenciação, que se traduzem por uma transfiguração dos conceitos e padrões observados até aqui. O empreendedorismo assume uma capital importância, salientando-se a perspetiva comportamental do líder empreendedor no processo eficaz de criação de valor: incremental, diferenciador e sustentável. O comportamento organizacional deve assumir uma preponderância central na gestão empreendedora das organizações, ao nível dos seus agentes determinantes: condições (cultura, liderança, estratégia), recursos (capital humano, competências, relacionamentos externos, estruturas), processos (gestão de atividades de IDI, aprendizagem e melhoria sistemática, proteção e valorização de resultados) e resultados (financeiros e operacionais, mercado e sociedade). A análise privilegiadamente comportamental que instigue a diferenciação como fator de inovação e criação de valor nas organizações atuais é corroborada por um estudo de caso que visa a elaboração de um modelo estrutural conceptual e um modelo de correlações canónicas de empresas do ramo automóvel, em Portugal, concelho de Vila Nova de Famalicão, que: 1. Tendeu a observar: i) a tipificação e influência do perfil de empreendedor deste concelho e ramo de atividade nas múltiplas dimensões do empreendedorismo sustentável – desempenho organizacional, inibidores e aceleradores da atividade empreendedora e relevância do papel do líder empreendedor; e ii) a construção de um modelo estrutural conceptual e de um modelo de correlações canónicas que conduziu a quatro tipologias de empreendedor e a sua envolvente; 2. Intentou a ilustração de uma pertinência empírica futura para o seu desenvolvimento e aplicabilidade nas organizações.
Resumo:
This study aimed to evaluate the influence of the main meteorological mechanisms trainers and inhibitors of precipitation, and the interactions between different scales of operation, the spatial and temporal variability of the annual cycle of precipitation in the Rio Grande do Norte. Além disso, considerando as circunstâncias locais e regionais, criando assim uma base científica para apoiar ações futuras na gestão da demanda de água no Estado. Database from monthly precipitation of 45 years, ranging between 1963 and 2007, data provided by EMPARN. The methodology used to achieve the results was initially composed of descriptive statistical analysis of historical data to prove the stability of the series, were applied after, geostatistics tool for plotting maps of the variables, within the geostatistical we opted for by Kriging interpolation method because it was the method that showed the best results and minor errors. Among the results, we highlight the annual cycle of rainfall the State which is influenced by meteorological mechanisms of different spatial and temporal scales, where the main mechanisms cycle modulators are the Conference Intertropical Zone (ITCZ) acting since midFebruary to mid May throughout the state, waves Leste (OL), Lines of instability (LI), breeze systems and orographic rainfall acting mainly in the Coastal strip between February and July. Along with vortice of high levels (VCANs), Complex Mesoscale Convective (CCMs) and orographic rain in any region of the state mainly in spring and summer. In terms of larger scale phenomena stood out El Niño and La Niña, ENSO in the tropical Pacific basin. In La Niña episodes usually occur normal or rainy years, as upon the occurrence of prolonged periods of drought are influenced by EL NIÑO. In the Atlantic Ocean the standard Dipole also affects the intensity of the rainfall cycle in State. The cycle of rains in Rio Grande do Norte is divided into two periods, one comprising the regions West, Central and the Western Portion of the Wasteland Potiguar mesoregions of west Chapada Borborema, causing rains from midFebruary to mid-May and a second period of cycle, between February-July, where rains occur in mesoregions East and of the Wasteland, located upwind of the Chapada Borborema, both interspersed with dry periods without occurrence of significant rainfall and transition periods of rainy - dry and dry-rainy where isolated rainfall occur. Approximately 82% of the rainfall stations of the state which corresponds to 83.4% of the total area of Rio Grande do Norte, do not record annual volumes above 900 mm. Because the water supply of the State be maintained by small reservoirs already are in an advanced state of eutrophication, when the rains occur, act to wash and replace the water in the reservoirs, improving the quality of these, reducing the eutrophication process. When rain they do not significantly occur or after long periods of shortages, the process of eutrophication and deterioration of water in dams increased significantly. Through knowledge of the behavior of the annual cycle of rainfall can have an intimate knowledge of how it may be the tendency of rainy or prone to shortages following period, mainly observing the trends of larger scale phenomena
Resumo:
The research project examines representations elaborated about Amelia Duarte Machado, images that were built in a particular space: the Natal City. Amelia, one mossoroense that has a simple life, stated a luxurious life after marrying with a rich Portuguese merchant Manuel Machado, in 1904. She led a life of society lady, lived in a sumptuous residence, traveled to Europe, attending the Theatre the city and took care of the social image of her husband, opening the doors of your home to promote dinners and receptions. Experienced the changes occurring in Natal in the first three decades of the twentieth century, when the initiative of a political and intellectual elite of the city began to incorporate bourgeois values and to provide a technical framework focused on the improvements brought by the Industrial Revolution. In 1934, with her husband's death, took over the family business. Besides the widow, also became an enterprising woman. The widow Amelia Machado also became the target of suspicion of the population, rumors about his life. From there emerges a frightening figure in Natal, a being that captured and ate the liver of children, the papa-figo of Natal City, the Widow Machado. In this research, we relate different images that circulated about this woman, who was society lady, dashing widow and papa-figo, articulating these representations with the discourse on female circulating in Natal from 1900 to 1930 yet will raise hypotheses about the creation of the Legend of the Widow Machado