48 resultados para Models - Theoretical

em Instituto Politécnico do Porto, Portugal


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Transdermal biotechnologies are an ever increasing field of interest, due to the medical and pharmaceutical applications that they underlie. There are several mathematical models at use that permit a more inclusive vision of pure experimental data and even allow practical extrapolation for new dermal diffusion methodologies. However, they grasp a complex variety of theories and assumptions that allocate their use for specific situations. Models based on Fick's First Law found better use in contexts where scaled particle theory Models would be extensive in time-span but the reciprocal is also true, as context of transdermal diffusion of particular active compounds changes. This article reviews extensively the various theoretical methodologies for studying dermic diffusion in the rate limiting dermic barrier, the stratum corneum, and systematizes its characteristics, their proper context of application, advantages and limitations, as well as future perspectives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dynamic parallel scheduling using work-stealing has gained popularity in academia and industry for its good performance, ease of implementation and theoretical bounds on space and time. Cores treat their own double-ended queues (deques) as a stack, pushing and popping threads from the bottom, but treat the deque of another randomly selected busy core as a queue, stealing threads only from the top, whenever they are idle. However, this standard approach cannot be directly applied to real-time systems, where the importance of parallelising tasks is increasing due to the limitations of multiprocessor scheduling theory regarding parallelism. Using one deque per core is obviously a source of priority inversion since high priority tasks may eventually be enqueued after lower priority tasks, possibly leading to deadline misses as in this case the lower priority tasks are the candidates when a stealing operation occurs. Our proposal is to replace the single non-priority deque of work-stealing with ordered per-processor priority deques of ready threads. The scheduling algorithm starts with a single deque per-core, but unlike traditional work-stealing, the total number of deques in the system may now exceed the number of processors. Instead of stealing randomly, cores steal from the highest priority deque.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main purpose of this study was to examine the applicability of geostatistical modeling to obtain valuable information for assessing the environmental impact of sewage outfall discharges. The data set used was obtained in a monitoring campaign to S. Jacinto outfall, located off the Portuguese west coast near Aveiro region, using an AUV. The Matheron’s classical estimator was used the compute the experimental semivariogram which was fitted to three theoretical models: spherical, exponential and gaussian. The cross-validation procedure suggested the best semivariogram model and ordinary kriging was used to obtain the predictions of salinity at unknown locations. The generated map shows clearly the plume dispersion in the studied area, indicating that the effluent does not reach the near by beaches. Our study suggests that an optimal design for the AUV sampling trajectory from a geostatistical prediction point of view, can help to compute more precise predictions and hence to quantify more accurately dilution. Moreover, since accurate measurements of plume’s dilution are rare, these studies might be very helpful in the future for validation of dispersion models.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The idiomatic expression “In Rome be a Roman” can be applied to leadership training and development as well. Leaders who can act as role models inspire other future leaders in their behaviour, attitudes and ways of thinking. Based on two examples of current leaders in the fields of Politics and Public Administration, I support the idea that exposure to role models during their training was decisive for their career paths and current activities as prominent characters in their profession. Issues such as how students should be prepared for community or national leadership as well as cross-cultural engagement are raised here. The hypothesis of transculturalism and cross-cultural commitment as a factor of leadership is presented. Based on current literature on Leadership as well as the presented case studies, I expect to raise a debate focusing on strategies for improving leaders’ training in their cross-cultural awareness.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Long-term contractual decisions are the basis of an efficient risk management. However those types of decisions have to be supported with a robust price forecast methodology. This paper reports a different approach for long-term price forecast which tries to give answers to that need. Making use of regression models, the proposed methodology has as main objective to find the maximum and a minimum Market Clearing Price (MCP) for a specific programming period, and with a desired confidence level α. Due to the problem complexity, the meta-heuristic Particle Swarm Optimization (PSO) was used to find the best regression parameters and the results compared with the obtained by using a Genetic Algorithm (GA). To validate these models, results from realistic data are presented and discussed in detail.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of economical relations increases the interaction between organizations and stakeholders. It is no more acceptable to manage an organization under a transactional perspective where suppliers had a fundamental role. Nowadays organizations are being managed under a relational perspective where relations and relationship management in general have consequences in identity management (Hakansson e Snehota, 1989, 1995). A correct perception and management of identity is necessary to achieve distinctiveness in the competitive environment. This way, identity is influenced by relations with stakeholders in general and particularly with competitors. The ICIG concept states that identity is related with the values of the organization and it helps creating distinctiveness in the competitive environment (Van Riel, Balmer, 1997); Baker and Balmer (1997) state that identity is what the organization is; Suvatjis and de Chernatony (2005) refer that expressing identity is a dynamic process that evolves the use of a management model to face context changes; Kapferer (1991) states that brand identity is the project, the self conception of the brand. After reviewing and confronting literature under the plethora of identities’ concepts and perspectives (He, Balmer, 2007) one can’t find an integrative answer with all the elements that contribute to identity of organizations. The authors are strongly interested to contribute to the elimination of this limitation and to answer to strategic management needs. In a marketing context one can find: - the corporate identity approach that is focused in the distinctive attributes of an organization (Abratt, Balmer, Marwick e Fill, Stuart, Balmer and Gray, Alessandri, Suvatjis and de Chernatony) - the brand identity approach (related with the application of corporate identity studies to brands) - Kapferer, Semprini, Aaker, de Chernatony). Kapferer (1991), one of the most prolific authors in this field was the first author to integrate identity in a brand concept. In his view, identity is an emission concept. This idea is shared also by Aaker (1996). Yet, identity has to be managed in a competitive environment which is constantly changing. After reviewing and confronting literature, authors select concepts that are generally accepted by the investigators in order to design a model to analyze and manage identity: - corporate identity models: personality, image/reputation, culture, philosophy, mission, strategy, structure, communication - some of these concepts derive from identity models and others from identity management models; - brand identity models – Kapferer (1991, 2008) identity prism, witch is basis of literature in this field: culture, physical facet, personality, relationship (between brand and consumer), reflected consumer, consumers` self-concept. After discussion authors decide to include other concept in line with other authors` view: country of origin (Aaker, 1996). A discussion eliminates the twin concepts and the final selection is as follows: personality, image/reputation, culture (including philosophy and mission), strategy, structure, communication, culture, physical facet, relationship (between brand and consumer), reflected consumer, consumers` self-concept and according to authors` reflections “relationships” deriving from competitors` actions in competitive environment. Competitors’ actions and decisions have a stronger influence in the organizations` positioning than any other stakeholder as stated before. This is a work in progress towards a new model in identity analysis and management so an exploratory study will follow inquiring experts on identity in order to evaluate these concepts and correct the theoretical perspectives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho experimental teve como objectivos estudar a tratabilidade dum efluente lácteo utilizando a técnica de coagulação/floculação e avaliar a possibilidade de utilização do carvão activado granulado (CAG) Aquasorb 2000 como adsorvente para a remoção de compostos orgânicos presentes nos efluentes lácteos pré–tratados por coagulação/floculação, funcionando como um tratamento de polimento. No estudo da tratabilidade do efluente por coagulação/floculação investigou-se a influência de determinadas variáveis como o tipo e dose de coagulante e pH, a fim de encontrar as melhores condições operatórias. A utilização da referida técnica visou a redução do valor de concentração de alguns parâmetros: carência química de oxigénio (CQO); fósforo total e turvação, tendo sido utilizados efluentes desta indústria recolhidos em diferentes datas e após tratamento biológico, designados por A, B, C e D apresentando características diferentes. Sendo que o efluente A apresentava valores de CQO, fósforo total e turvação de 500 mg O2/L;32 mg P/L e 40 NTU respectivamente, o efluente B 1400 mg O2/L; 120 mg P/L e 80 NTU respectivamente, o efluente C 12300 mg O2/L; 87 mg P/L e 350 NTU respectivamente e o efluente D 340 mg O2/L; 33 mg P/L e 42 NTU respectivamente. Os coagulantes estudados foram hidróxido de cálcio (HC), sulfato de alumínio (SA) e tricloreto de ferro (TF). Verificou-se que o coagulante com maior eficácia nos efluentes estudados foi o TF. As maiores remoções de CQO, fósforo total e turvação, 89%, 99,9% e 99%, respectivamente, foram obtidas para o efluente C, com uma dosagem de TF de 4 g/L e com um pH entre 6 e 7. Entre os efluentes estudados este era o que apresentava valores iniciais mais elevados para qualquer um destes parâmetros. As melhores percentagens de remoção obtidas com o HC, para a CQO, fósforo total e turvação foram de 59%, 99% e 91%, respectivamente, com uma dosagem de HC de 1 g/L e com um pH entre 10 e 11,5 foram conseguidas no tratamento do efluente D, com o qual se alcançaram também as melhores remoções de CQO, fósforo total e turvação de 65%, 99% e 87%, respectivamente, quando se utilizou o coagulante SA, com uma dosagem de 2 g/L e com um pH entre 7 e 7,5. Relativamente ao volume de lamas produzido neste processo pela utilização dos diferentes coagulantes no tratamento dos efluentes referidos concluiu-se que o coagulante que gera menor volume de lamas é o HC, sendo o SA aquele que origina um maior volume. Submeteu-se posteriormente o efluente D, pré-tratado por coagulação/floculação, a um processo de adsorção em batch utilizando o CAG Aquasorb 2000, onde se conseguiu uma remoção de CQO de 48%, alcançando para este parâmetro o valor de 63 mg O2/L, nas condições operatórias que correspondem a uma massa de CAG de 12,5 g/L e um tempo de contacto de 3 horas. Quanto aos custos associados com os coagulantes, o que menores custos apresenta é o HC (150 €/ton), seguido pelo TF (250 €/ton) e por ultimo o SA (340 €/ton). Sendo que o efluente quando tratado com TF e SA é necessário uma correcção do pH do meio para que estes coagulantes actuem eficazmente, em que essa correcção de pH é realizada com hidróxido de sódio (540 €/ton). Realizaram-se ainda estudos de equilíbrio de adsorção com o carvão activado referido e o azul-de-metileno usando diferentes concentrações deste (50 mg/L; 100 mg/L e 200 mg/L) e diferentes massas de CAG (0,1g; 0,2g; 0,3g; 0,4g e 0,5g). A temperatura a que se realizaram estes ensaios foi de 28,7ºC e o volume de azul-de-metileno foi de 200 mL. Verificou-se que os melhores resultados obtidos foram para uma concentração de adsorvato de 100 mg/L. Ajustaram-se os modelos de Langmuir e Freundlich às isotérmicas obtidas tendo correlações mais elevadas para a concentração de 100 mg/L de corante (azul de metileno), sendo o modelo de Freundlich aquele que melhor se ajustou apresentando uma correlação quadrática de 0,9744 e os seguintes parâmetros Kf = 6,59 e n = 5,33, enquanto que o de Langmuir apresentou uma correlação quadrática de 0,9583 e os seguintes parâmetros qmáx = 83,3 mg/g de adsorvente e K = 20 L/mg de adsorvato.. Verificou-se que a capacidade de adsorção promovida pelo CAG, em relação ao azul-demetileno, obtida experimentalmente, 83,3 mg/g, é muito inferior à capacidade de adsorção teoricamente prevista pela ficha técnica deste carvão, 280 mg/g a uma temperatura de 25ºC, o que pode indiciar que o carvão utilizado não estaria nas melhores condições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho é uma parte do tema global “Suporte à Computação Paralela e Distribuída em Java”, também tema da tese de Daniel Barciela no mestrado de Engenharia Informática do Instituto Superior de Engenharia do Porto. O seu objetivo principal consiste na definição/criação da interface com o programador, assim como também abrange a forma como os nós comunicam e cooperam entre si para a execução de determinadas tarefas, de modo a atingirem um único objetivo global. No âmbito desta dissertação foi realizado um estudo prévio relativamente aos modelos teóricos referentes à computação paralela, assim como também foram analisadas linguagens e frameworks que fornecem suporte a este mesmo tipo de computação. Este estudo teve como principal objetivo a análise da forma como estes modelos e linguagens permitem ao programador expressar o processamento paralelo no desenvolvimento das aplicações. Como resultado desta dissertação surgiu a framework denominada Distributed Parallel Framework for Java (DPF4j), cujo objetivo principal é fornecer aos programadores o suporte para o desenvolvimento de aplicações paralelas e distribuídas. Esta framework foi desenvolvida na linguagem Java. Esta dissertação contempla a parte referente à interface de programação e a toda a comunicação entre nós cooperantes da framework DPF4j. Por fim, foi demonstrado através dos testes realizados que a DPF4j, apesar de ser ainda um protótipo, já demonstra ter uma performance superior a outras frameworks e linguagens que possuem os mesmos objetivos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The first and second authors would like to thank the support of the PhD grants with references SFRH/BD/28817/2006 and SFRH/PROTEC/49517/2009, respectively, from Fundação para a Ciência e Tecnol ogia (FCT). This work was partially done in the scope of the project “Methodologies to Analyze Organs from Complex Medical Images – Applications to Fema le Pelvic Cavity”, wi th reference PTDC/EEA- CRO/103320/2008, financially supported by FCT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In recent years several countries have set up policies that allow exchange of kidneys between two or more incompatible patient–donor pairs. These policies lead to what is commonly known as kidney exchange programs. The underlying optimization problems can be formulated as integer programming models. Previously proposed models for kidney exchange programs have exponential numbers of constraints or variables, which makes them fairly difficult to solve when the problem size is large. In this work we propose two compact formulations for the problem, explain how these formulations can be adapted to address some problem variants, and provide results on the dominance of some models over others. Finally we present a systematic comparison between our models and two previously proposed ones via thorough computational analysis. Results show that compact formulations have advantages over non-compact ones when the problem size is large.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Adhesively-bonded joints are extensively used in several fields of engineering. Cohesive Zone Models (CZM) have been used for the strength prediction of adhesive joints, as an add-in to Finite Element (FE) analyses that allows simulation of damage growth, by consideration of energetic principles. A useful feature of CZM is that different shapes can be developed for the cohesive laws, depending on the nature of the material or interface to be simulated, allowing an accurate strength prediction. This work studies the influence of the CZM shape (triangular, exponential or trapezoidal) used to model a thin adhesive layer in single-lap adhesive joints, for an estimation of its influence on the strength prediction under different material conditions. By performing this study, guidelines are provided on the possibility to use a CZM shape that may not be the most suited for a particular adhesive, but that may be more straightforward to use/implement and have less convergence problems (e.g. triangular shaped CZM), thus attaining the solution faster. The overall results showed that joints bonded with ductile adhesives are highly influenced by the CZM shape, and that the trapezoidal shape fits best the experimental data. Moreover, the smaller is the overlap length (LO), the greater is the influence of the CZM shape. On the other hand, the influence of the CZM shape can be neglected when using brittle adhesives, without compromising too much the accuracy of the strength predictions.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The development of new products or processes involves the creation, re-creation and integration of conceptual models from the related scientific and technical domains. Particularly, in the context of collaborative networks of organisations (CNO) (e.g. a multi-partner, international project) such developments can be seriously hindered by conceptual misunderstandings and misalignments, resulting from participants with different backgrounds or organisational cultures, for example. The research described in this article addresses this problem by proposing a method and the tools to support the collaborative development of shared conceptualisations in the context of a collaborative network of organisations. The theoretical model is based on a socio-semantic perspective, while the method is inspired by the conceptual integration theory from the cognitive semantics field. The modelling environment is built upon a semantic wiki platform. The majority of the article is devoted to developing an informal ontology in the context of a European R&D project, studied using action research. The case study results validated the logical structure of the method and showed the utility of the method.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper describes the use of integer and fractional electrical elements, for modelling two electrochemical systems. A first type of system consists of botanical elements and a second type is implemented by electrolyte processes with fractal electrodes. Experimental results are analyzed in the frequency domain, and the pros and cons of adopting fractional-order electrical components for modelling these systems are compared.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.