963 resultados para Raïm
Resumo:
Determinou-se incidência de reações adversas a medicamentos (RAM) que levaram crianças a atendimento de emergência em um hospital universitário de São Paulo, SP. Foram analisadas, retrospectivamente, 23.286 fichas de atendimento (FA) em emergência pediátrica, a partir de código CID que indicasse possível RAM. Observaram-se 83 (0,36%) RAMs. A maioria ocorreu na faixa etária entre 1 a 5 anos com leve predominância no sexo masculino (51,8%). Os medicamentos mais implicados foram antibacterianos para uso sistêmico (53,0%), vacinas (9,6%) e analgésicos (7,2%). A maior parte das RAMs foram manifestações dérmicas (54,2%) ou gastrointestinais (22,9%). Duas RAMs foram consideradas graves (2,4%) e levaram a internação; enquanto 61,4% foram leves e 36,1% foram moderadas. A incidência foi inferior à literatura, provavelmente por ser estudo retrospectivo, utilizando-se o CID para seleção das FA. Observou-se que, no Brasil, as RAMs levam crianças a atendimento de emergência, com características semelhantes às de outros países. Intervenções são necessárias para melhorar o diagnóstico e a utilização de antimicrobianos, uma vez que foram os medicamentos mais implicados nas RAMs observadas. A pesquisa no setor de emergência hospitalar é importante para se conhecer as RAMs que ocorrem fora do contexto hospitalar, podendo contribuir para identificar aquelas de maior gravidade. A metodologia utilizada, apesar das limitações, requer poucos recursos humanos e materiais, sendo uma boa alternativa para um diagnóstico inicial, que deve ser sucedido por estudos mais elaborados e de maior sensibilidade para detectar essas reações e propor medidas dirigidas à sua prevenção.
Resumo:
As estimações das taxas de inflação são de fundamental importância para os gestores, pois as decisões de investimento estão intimamente ligadas a elas. Contudo, o comportamento inflacionário tende a ser não linear e até mesmo caótico, tornando difícil a sua correta estimação. Essa característica do fenômeno pode tornar imprecisos os modelos mais simples de previsão, acessíveis às pequenas organizações, uma vez que muitos deles necessitam de grandes manipulações de dados e/ou softwares especializados. O presente artigo tem por objetivo avaliar, por meio de análise formal estatística, a eficácia das redes neurais artificiais (RNA) na previsão da inflação, dentro da realidade de organizações de pequeno porte. As RNA são ferramentas adequadas para mensurar os fenômenos inflacionários, por se tratar de aproximações de funções polinomiais, capazes de lidar com fenômenos não lineares. Para esse processo, foram selecionados três modelos básicos de redes neurais artificiais Multi Layer Perceptron, passíveis de implementação a partir de planilhas eletrônicas de código aberto. Os três modelos foram testados a partir de um conjunto de variáveis independentes sugeridas por Bresser-Pereira e Nakano (1984), com defasagem de um, seis e doze meses. Para tal, foram utilizados testes de Wilcoxon, coeficiente de determinação R² e o percentual de erro médio dos modelos. O conjunto de dados foi dividido em dois, sendo um grupo usado para treinamento das redes neurais artificiais, enquanto outro grupo era utilizado para verificar a capacidade de predição dos modelos e sua capacidade de generalização. Com isso, o trabalho concluiu que determinados modelos de redes neurais artificiais têm uma razoável capacidade de predição da inflação no curto prazo e se constituem em uma alternativa razoável para esse tipo de mensuração.
Resumo:
Modelos de apreçamento de ativos têm sido um tema sob constante investigação em finanças. Desde o capital asset pricing model (CAPM) proposto por Sharpe (1964), tais modelos relacionam, geralmente de maneira linear, a taxa de retorno esperada de um ativo ou carteira de ativos com fatores de risco sistêmico. Esta pesquisa apresenta um teste de um modelo de apreçamento, com dados brasileiros, introduzindo em sua formulação fatores de risco baseados em comomentos estatísticos. O modelo proposto é uma extensão do CAPM original acrescido da coassimetria e da cocurtose entre as taxas de retorno das ações das empresas que compõem a amostra e as taxas de retorno da carteira de mercado. Os efeitos de outras variáveis, como o valor de mercado sobre valor contábil, a alavancagem financeira e um índice de negociabilidade em bolsa, serviram de variáveis de controle. A amostra foi composta de 179 empresas brasileiras não financeiras negociadas na BM&FBovespa e com dados disponíveis entre os anos de 2003 a 2007. A metodologia consistiu em calcular os momentos sistêmicos anuais a partir de taxas de retornos semanais e em seguida testá-los em um modelo de apreçamento, a fim de verificar se há um prêmio pelo risco associado a cada uma dessas medidas de risco. Foi empregada a técnica de análise de dados em painel, estimada pelo método dos momentos generalizado (GMM). O emprego do GMM visa lidar com potenciais problemas de determinação simultânea e endogeneidade nos dados, evitando a ocorrência de viés nas estimações. Os resultados das estimações mostram que a relação das taxas de retorno dos ativos com a covariância e a cocurtose são estatisticamente significantes. Os resultados se mostraram robustos a especificações alternativas do modelo. O artigo contribui para a literatura por apresentar evidências empíricas brasileiras de que há um prêmio pelo risco associado aos momentos sistêmicos.
Resumo:
O objetivo principal deste trabalho é analisar se a presença de importantes fatores institucionais brasileiros, como o acesso a fontes e linhas diferenciadas de financiamento, afeta a significância estatística e econômica da assimetria informacional, principal pressuposto da teoria de pecking order, na determinação da estrutura de capital de empresas brasileiras. Para tanto, foram utilizadas variáveis de controle, variáveis representativas de fatores institucionais e de assimetria informacional num painel de dados referente a empresas brasileiras de setores industriais, cujas ações foram negociadas na Bovespa, no período 1997-2007. Como principais resultados encontra-se que as variáveis tamanho, tangibilidade, rentabilidade e risco são importantes determinantes da estrutura de capital das empresas analisadas, sendo também significativa a participação de linhas diferenciadas no endividamento dessas empresas. Em resposta ao objetivo da pesquisa, verifica-se que a assimetria informacional não perde significância estatística e econômica no modelo proposto, após a inclusão de variáveis representativas de fatores institucionais, o que evidencia a importância da assimetria informacional na determinação da estrutura de capital de empresas brasileiras. O sinal negativo encontrado apoia a teoria de pecking order, na qual essas empresas seriam menos endividadas devido à possibilidade de captarem recursos por meio da emissão de ações. Ressalta-se que as proxies utilizadas para representar o atributo assimetria informacional constituem uma limitação da pesquisa. Em razão disso, sugere-se, para trabalhos futuros, a utilização de outras variáveis, com o propósito de verificar a consistência dos resultados aqui encontrados, bem como a análise da influência da assimetria informacional sobre o custo de capital de empresas brasileiras, com o intuito de verificar se empresas consideradas com menor assimetria informacional conseguem captar recursos a taxas de juros mais atrativas.
Resumo:
Este artigo tem como objetivo central apresentar resultados de estudo destinado a investigar as principais questões e desafios em torno da temática da liderança e seu desenvolvimento, na contemporaneidade, segundo a perspectiva de altos executivos de grandes empresas brasileiras. Considerando tal propósito, seus objetivos específicos podem ser assim descritos: 1. investigar sentidos atribuídos e estilos de liderança articulados à vivência e prática dos executivos investigados; 2. investigar temas-chave ao desenvolvimento de lideranças no atual contexto dos negócios e das organizações; 3. identificar tendências, novos temas e desafios em torno da temática da liderança, no contemporâneo. Como referencial teórico cabe salientar revisão de literatura envolvendo descrição evolutiva dos estudos sobre a temática, com destaque para as principais correntes e abordagens teórico-metodológico-conceituais. Em termos metodológicos, a pesquisa que subsidiou os resultados deste estudo pode ser caracterizada como de natureza qualitativa e caráter descritivo, tendo seus dados primários derivados de entrevistas semiestruturadas e em profundidade realizadas com 13 altos executivos de grandes corporações, nacionais e internacionais, situadas nos estados de São Paulo e Minas Gerais. Após tratamento dos dados, com o auxílio do software de tratamento qualitativo NVivo 8, foi possível agrupar os principais temas e desafios identificados em torno da liderança em três temas-chave: Sentidos, Competências, Estilos e Desafios associados à Liderança no Contemporâneo; Desenvolvimento de Lideranças; Liderança e Contexto Capacitante. O estudo possibilitou, também, identificar atributos de competência e estilos de liderança requeridos como respostas ao atual contexto dos negócios e das organizações, segundo a perspectiva dos executivos entrevistados. Concomitantemente, foi possível constatar novos desafios e preocupações em relação à temática da liderança, como, por exemplo, lidar com as novas gerações - em especial a chamada Geração Y - que, em breve, deverão assumir posições-chave nas organizações, em decorrência da aposentadoria dos Baby Boomers. Em suma, os achados permitem, a partir da perspectiva dos próprios atores diretamente envolvidos na problemática da liderança, no contexto empresarial, a emergência de questões e desafios a serem contemplados em novas agendas de desenvolvimento e linhas de pesquisa sobre o tema.
Resumo:
Na literatura sobre redes interorganizacionais, parte das abordagens de pesquisa afirma que tal tipo de ambiente favorece as condições para a aprendizagem por meio da combinação de capacidade de diferentes membros. Igualmente, existem correntes de estudo que apontam haver ressalvas relacionadas às próprias características dos membros. Esta aparente contradição instigou um questionamento: como a configuração de posições de membros de redes interorganizacionais afeta o sentido que a aprendizagem adquire para os próprios membros? Utilizando-se referências conceituais da área de aprendizagem em redes interorganizacionais, o estudo apresenta os resultados da análise de um caso empírico de uma comunidade epistêmica (rede de cooperação científica formalmente instituída) brasileira no campo da biotecnologia. Adotou-se como método de pesquisa a triangulação de técnicas quantitativas e qualitativas. Inicialmente, utilizou-se a análise quantitativa sociométrica evidenciando a posição do membro de acordo com a centralidade para a aprendizagem e a produção acadêmica. Após essa identificação, foram aplicadas entrevistas semiestruturadas aos membros localizados em diferentes posições, fossem elas de alto valor agregado (membros com alta centralidade) ou marginais (membros com baixa centralidade). A partir de um referencial de análise qualitativo com foco nos conceitos de práticas e gêneros discursivos, foi possível delinear diferentes sentidos sobre a aprendizagem decorrida de acordo com a posição dos membros. A partir dos resultados, evidenciou-se a relação da posição ocupada pelo membro da rede o sentido dado à aprendizagem. Apesar das limitações associadas à pesquisa sobre um caso único que dificulta a possível generalização dos resultados, o estudo abre possibilidades de aprofundar novas pesquisas sobre a relação entre as características dos membros e sua posição com a aprendizagem em redes interorganizacionais.
Resumo:
Il lavoro svolto da Fabrizio Amici ha suscitato immediatamente il mio interesse in primo luogo perché quando si parla di virtualizzazione con vari fornitori e commerciali, questi la indicano come una soluzione che possa coprire a 360 gradi le esigenze di un Datacenter. Questo è vero nella misura in cui il progetto di virtualizzazione e consolidamento dei Server sia svolto sotto certi criteri progettuali. Per esperienza personale non ho trovato in letteratura lavori che potessero fornire indicazioni approfondite sui parametri da considerare per una corretta progettazione di sistemi di virtualizzazione, spesso ci si avvale di vari fornitori che accennano ad eventuali criticità. Un lavoro come quello proposto da Fabrizio va esattamente nella direzione di rispondere a quelle domande che nascono quando si affronta la tematica della virtualizzazione e soprattutto cerca di capire quali siano i limiti intrinseci della virtualizzazione. In particolare nei vari confronti che, con piacere, ho avuto con Fabrizio, il mio suggerimento è stato quello di esasperare il sistema che aveva assemblato, caricando i test sino ad osservarne i limiti. Dai vari test sono emerse sia conferme, sia inaspettati comportamenti del sistema che rendono ancora più chiaro che solo una prova sperimentale può essere il banco di prova di un sistema complesso. L'elemento che colpisce maggiormente analizzando i risultati è il diverso comportamento in funzione delle CPU utilizzate. I risultati indicano chiaramente che le prestazioni sono fortemente influenzate da come si distribuiscono i core nelle macchine virtuali. Dalla lettura dei risultati viene confermato che i sistemi virtualizzati devono essere progettati per non raggiungere il 70-80% della componente più critica (RAM, CPU) ma anche che sono fortemente sensibili alle disponibilità prestazionali dei sistemi al contorno (Rete, SAN/Dischi). L'approccio metodico sperimentale ed i risultati forniscono una serie di elementi che permettono di affrontare la tematica della virtualizzazione in un quadro generale più solido, offrendo fra l'altro spunti di ricerca ulteriori anche in previsione di nuove soluzioni che vari costruttori, sviluppatori e system integrator proporranno nei prossimi anni. Ing. Massimiliano Casali Esperto di Gestione ICT, Pubblica Amministrazione,Repubblica di San Marino
Resumo:
Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.
Resumo:
Questa dissertazione esamina le sfide e i limiti che gli algoritmi di analisi di grafi incontrano in architetture distribuite costituite da personal computer. In particolare, analizza il comportamento dell'algoritmo del PageRank così come implementato in una popolare libreria C++ di analisi di grafi distribuiti, la Parallel Boost Graph Library (Parallel BGL). I risultati qui presentati mostrano che il modello di programmazione parallela Bulk Synchronous Parallel è inadatto all'implementazione efficiente del PageRank su cluster costituiti da personal computer. L'implementazione analizzata ha infatti evidenziato una scalabilità negativa, il tempo di esecuzione dell'algoritmo aumenta linearmente in funzione del numero di processori. Questi risultati sono stati ottenuti lanciando l'algoritmo del PageRank della Parallel BGL su un cluster di 43 PC dual-core con 2GB di RAM l'uno, usando diversi grafi scelti in modo da facilitare l'identificazione delle variabili che influenzano la scalabilità. Grafi rappresentanti modelli diversi hanno dato risultati differenti, mostrando che c'è una relazione tra il coefficiente di clustering e l'inclinazione della retta che rappresenta il tempo in funzione del numero di processori. Ad esempio, i grafi Erdős–Rényi, aventi un basso coefficiente di clustering, hanno rappresentato il caso peggiore nei test del PageRank, mentre i grafi Small-World, aventi un alto coefficiente di clustering, hanno rappresentato il caso migliore. Anche le dimensioni del grafo hanno mostrato un'influenza sul tempo di esecuzione particolarmente interessante. Infatti, si è mostrato che la relazione tra il numero di nodi e il numero di archi determina il tempo totale.
Resumo:
Aufbau einer kontinuierlichen, mehrdimensionalen Hochleistungs-flüssigchromatographie-Anlage für die Trennung von Proteinen und Peptiden mit integrierter größenselektiver ProbenfraktionierungEs wurde eine mehrdimensionale HPLC-Trennmethode für Proteine und Peptide mit einem Molekulargewicht von <15 kDa entwickelt.Im ersten Schritt werden die Zielanalyte von höhermolekularen sowie nicht ionischen Bestandteilen mit Hilfe von 'Restricted Access Materialien' (RAM) mit Ionenaustauscher-Funktionalität getrennt. Anschließend werden die Proteine auf einer analytischen Ionenaustauscher-Säule sowie auf Reversed-Phase-Säulen getrennt. Zur Vermeidung von Probenverlusten wurde ein kontinuierlich arbeitendes, voll automatisiertes System auf Basis unterschiedlicher Trenngeschwindigkeiten und vier parallelen RP-Säulen aufgebaut.Es werden jeweils zwei RP-Säulen gleichzeitig, jedoch mit zeitlich versetztem Beginn eluiert, um durch flache Gradienten ausreichende Trennleistungen zu erhalten. Während die dritte Säule regeneriert wird, erfolgt das Beladen der vierte Säule durch Anreicherung der Proteine und Peptide am Säulenkopf. Während der Gesamtanalysenzeit von 96 Minuten werden in Intervallen von 4 Minuten Fraktionen aus der 1. Dimension auf die RP-Säulen überführt und innerhalb von 8 Minuten getrennt, wobei 24 RP-Chromatogramme resultieren.Als Testsubstanzen wurden u.a. Standardproteine, Proteine und Peptide aus humanem Hämofiltrat sowie aus Lungenfibroblast-Zellkulturüberständen eingesetzt. Weiterhin wurden Fraktionen gesammelt und mittels MALDI-TOF Massenspektrometrie untersucht. Bei einer Injektion wurden in den 24 RP-Chromatogrammen mehr als 1000 Peaks aufgelöst. Der theoretische Wert der Peakkapazität liegt bei ungefähr 3000.
Resumo:
Il presente elaborato di tesi fornisce una descrizione delle principali caratteristiche implementative delle tecnologie attualmente maggiormente diffuse per la realizzazione di memorie a semiconduttore volatili e non. Inoltre espone in modo più dettagliato quali sono i materiali utilizzati, i principi alla base del funzionamento, le implementazioni architetturali ed i problemi delle nuove memorie non volatili Magnetoresistive (MRAM), Ferroelettriche (Fe-RAM) ed a Cambiamento di Fase (PCM). Infine, viene proposto un confronto tra le prestazioni delle diverse classi di dispositivi.
Resumo:
Major efforts have been undertaken to reduce donor-site morbidity after abdominal flaps, which eventually culminated in the introduction of the deep inferior epigastric perforator (DIEP) flap. However, due to anatomical variations (absence of dominant perforators) and the risk of ischaemic complications, the selection of patients qualifying for a DIEP flap is limited. Furthermore, DIEP flaps can only be used as free flaps. We present our long-term experience with a dissection technique of rectus abdominis myocutaneous (RAM) flaps that was developed to circumvent these drawbacks. The dissection is characterised by preventing to sacrifice any perforators nourishing the flap and by fully preserving the anterior rectus sheath, but not the muscle. The study comprises a consecutive series of prospectively assessed patients, treated between February 2000 and April 2008. A total of 100 fascia-sparing RAM flaps were operated on 97 patients (age 22-84 years, median 64 years). Free flaps were mainly used for breast reconstruction (47 flaps/24 patients), and cranially (34) or caudally (19) pedicled flaps for soft-tissue coverage after sternectomy, urogenital tumour resection or rectum amputation. Eighty patients had a total of 213 risk factors, such as cardiovascular diseases, obesity, hyperlipidaemia, diabetes mellitus, smoking or steroid medication. Partial tissue loss (skin or fat necrosis) occurred in 13 flaps, out of which seven required surgical revision. The ischaemic complications were evenly distributed between the patient subsets. At a follow-up of 2-89 months (median 20 months), one patient showed a flap harvest-related abdominal bulge after bilateral-free transverse rectus abdominis myocutaneous (TRAM) flap. We conclude that the present dissection technique provides maximal perforator-related perfusion and minimal donor-site morbidity even in pedicled flaps and high-risk patients. In free flaps, it may, therefore, be recommended as an alternative to the DIEP flap.
Resumo:
Coats plus is a highly pleiotropic disorder particularly affecting the eye, brain, bone and gastrointestinal tract. Here, we show that Coats plus results from mutations in CTC1, encoding conserved telomere maintenance component 1, a member of the mammalian homolog of the yeast heterotrimeric CST telomeric capping complex. Consistent with the observation of shortened telomeres in an Arabidopsis CTC1 mutant and the phenotypic overlap of Coats plus with the telomeric maintenance disorders comprising dyskeratosis congenita, we observed shortened telomeres in three individuals with Coats plus and an increase in spontaneous γH2AX-positive cells in cell lines derived from two affected individuals. CTC1 is also a subunit of the α-accessory factor (AAF) complex, stimulating the activity of DNA polymerase-α primase, the only enzyme known to initiate DNA replication in eukaryotic cells. Thus, CTC1 may have a function in DNA metabolism that is necessary for but not specific to telomeric integrity.
Resumo:
Purpose Orthognathic surgery has the objective of altering facial balance to achieve esthetic results in patients who have severe disharmony of the jaws. The purpose was to quantify the soft tissue changes after orthognathic surgery, as well as to assess the differences in 3D soft tissue changes in the middle and lower third of the face between the 1- and 2-jaw surgery groups, in mandibular prognathism patients. Materials and Methods We assessed soft tissue changes of patients who have been diagnosed with mandibular prognathism and received either isolated mandibular surgery or bimaxillary surgery. The quantitative surface displacement was assessed by superimposing preoperative and postoperative volumetric images. An observer measured a surface-distance value that is shown as a contour line. Differences between the groups were determined by the Mann-Whitney U test. The Spearman correlation coefficient was used to evaluate a potential correlation between patients' surgical and cephalometric variables and soft tissue changes after orthognathic surgery in each group. Results There were significant differences in the middle third of the face between the 1- and 2-jaw surgery groups. Soft tissues in the lower third of the face changed in both surgery groups, but not significantly. The correlation patterns were more evident in the lower third of the face. Conclusion The overall soft tissue changes of the midfacial area were more evident in the 2-jaw surgery group. In 2-jaw surgery, significant changes would be expected in the midfacial area, but caution should be exercised in patients who have a wide alar base.