986 resultados para Multiplicative linear secret sharing schemes


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os incêndios em edifícios representam um fenómeno que pode ter consequências devastadoras quando não controlado, não só em termos de perdas de vidas humanas, como em termos económicos. No passado, a ocorrência de incêndios de grandes dimensões mostrou os efeitos do fogo descontrolado nos edifícios, assim como a ineficiência dos meios de segurança ativa ao fogo. Nas últimas duas décadas, estas questões motivaram o estudo e compreensão da ação dos incêndios nas estruturas dos edifícios. Neste trabalho estuda-se a modelação da ação do fogo em estruturas metálicas e mistas, com o objetivo de contribuir para a sua melhor caracterização. A presente tese foca-se na validação e compreensão da implementação de análises termo-mecânicas a estruturas mistas no software de elementos finitos OpenSees (Open System for Earthquake Engineering Simulation), contribuindo assim para futuros estudos, não só de análises de estruturas mistas sujeitas a incêndio, mas também de análises de estruturas mistas sujeitas a eventos consecutivos, como sismo seguido de incêndio. Neste trabalho é feita uma breve descrição do fenómeno fogo, assim como dos processos inerentes à dinâmica de um incêndio que constituem uma fonte de incerteza para a modelação de cenários de incêndio num edifício. Posto isto, são abordados alguns modelos de incêndios presentes nos Eurocódigos, assim como o recente modelo de fogos móveis(“Travelling fires”). São realizados exemplos de aplicação no software e dois casos de estudo. O primeiro consiste na modelação de dois ensaios ao fogo realizados na Alemanha em 1986 em estruturas metálicas à escala 1/4. O segundo consiste na modelação de um ensaio ao fogo a uma viga de betão armado simplesmente apoiada, realizado no Instituto Superior Técnico em 2010. Os modelos numéricos desenvolvidos no OpenSees contabilizam as não linearidades físicas e geométricas, com elementos finitos de plasticidade distribuída e com uma formulação baseada em deslocamentos. Os resultados numéricos são então comparados com os experimentais, de modo a validar as análises termo-mecânicas no OpenSees.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A soldadura por fricção linear (SFL) é um processo de ligação no estado sólido com capacidade para soldar materiais dissimilares e ligas metálicas de baixa soldabilidade. Contudo, nas juntas soldadas com uma configuração topo-a-topo é possível o aparecimento de defeitos na raiz do cordão, nomeadamente, de falta de penetração e de alinhamentos de óxidos. Estes defeitos são responsáveis pela diminuição da resistência mecânica das juntas, sobretudo quando sujeitas a esforços de fadiga. Existem variantes do processo para eliminar este tipo de defeitos, no entanto, verificam-se algumas dificuldades tecnológicas e a competitividade do processo é afetada. No âmbito deste trabalho desenvolveu-se uma variante do processo designado soldadura por fricção linear assistida por corrente elétrica (SFLAE). Esta variante consiste em introduzir uma corrente elétrica de elevada intensidade na zona da raiz do cordão, por forma a que o calor gerado por efeito de Joule aqueça o material e aumente o fluxo visco-plástico nessa zona, tendo em vista atenuar ou eliminar os defeitos na raiz. Foram concebidas e produzidas ferramentas de SFL dedicadas, melhorado um modelo analítico do processo, realizadas simulações numéricas para permitir compreender alguns fenómenos físicos envolvidos no processo, e realizados ensaios experimentais de validação. A análise aos cordões permitiu observar uma diminuição da espessura dos defeitos na raiz em três ensaios realizados na liga AA1100 e AA6084-T6 usando intensidades de corrente de 300 A. Dos resultados de microdureza e de medição de condutividade elétrica é possível concluir que a microestrutura do material não é significativamente alterada pela passagem de corrente elétrica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diffusion Kurtosis Imaging (DKI) is a fairly new magnetic resonance imag-ing (MRI) technique that tackles the non-gaussian motion of water in biological tissues by taking into account the restrictions imposed by tissue microstructure, which are not considered in Diffusion Tensor Imaging (DTI), where the water diffusion is considered purely gaussian. As a result DKI provides more accurate information on biological structures and is able to detect important abnormalities which are not visible in standard DTI analysis. This work regards the development of a tool for DKI computation to be implemented as an OsiriX plugin. Thus, as OsiriX runs under Mac OS X, the pro-gram is written in Objective-C and also makes use of Apple’s Cocoa framework. The whole program is developed in the Xcode integrated development environ-ment (IDE). The plugin implements a fast heuristic constrained linear least squares al-gorithm (CLLS-H) for estimating the diffusion and kurtosis tensors, and offers the user the possibility to choose which maps are to be generated for not only standard DTI quantities such as Mean Diffusion (MD), Radial Diffusion (RD), Axial Diffusion (AD) and Fractional Anisotropy (FA), but also DKI metrics, Mean Kurtosis (MK), Radial Kurtosis (RK) and Axial Kurtosis (AK).The plugin was subjected to both a qualitative and a semi-quantitative analysis which yielded convincing results. A more accurate validation pro-cess is still being developed, after which, and with some few minor adjust-ments the plugin shall become a valid option for DKI computation

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The particular characteristics and affordances of technologies play a significant role in human experience by defining the realm of possibilities available to individuals and societies. Some technological configurations, such as the Internet, facilitate peer-to-peer communication and participatory behaviors. Others, like television broadcasting, tend to encourage centralization of creative processes and unidirectional communication. In other instances still, the affordances of technologies can be further constrained by social practices. That is the case, for example, of radio which, although technically allowing peer-to-peer communication, has effectively been converted into a broadcast medium through the legislation of the airwaves. How technologies acquire particular properties, meanings and uses, and who is involved in those decisions are the broader questions explored here. Although a long line of thought maintains that technologies evolve according to the logic of scientific rationality, recent studies demonstrated that technologies are, in fact, primarily shaped by social forces in specific historical contexts. In this view, adopted here, there is no one best way to design a technological artifact or system; the selection between alternative designs—which determine the affordances of each technology—is made by social actors according to their particular values, assumptions and goals. Thus, the arrangement of technical elements in any technological artifact is configured to conform to the views and interests of those involved in its development. Understanding how technologies assume particular shapes, who is involved in these decisions and how, in turn, they propitiate particular behaviors and modes of organization but not others, requires understanding the contexts in which they are developed. It is argued here that, throughout the last century, two distinct approaches to the development and dissemination of technologies have coexisted. In each of these models, based on fundamentally different ethoi, technologies are developed through different processes and by different participants—and therefore tend to assume different shapes and offer different possibilities. In the first of these approaches, the dominant model in Western societies, technologies are typically developed by firms, manufactured in large factories, and subsequently disseminated to the rest of the population for consumption. In this centralized model, the role of users is limited to selecting from the alternatives presented by professional producers. Thus, according to this approach, the technologies that are now so deeply woven into human experience, are primarily shaped by a relatively small number of producers. In recent years, however, a group of three interconnected interest groups—the makers, hackerspaces, and open source hardware communities—have increasingly challenged this dominant model by enacting an alternative approach in which technologies are both individually transformed and collectively shaped. Through a in-depth analysis of these phenomena, their practices and ethos, it is argued here that the distributed approach practiced by these communities offers a practical path towards a democratization of the technosphere by: 1) demystifying technologies, 2) providing the public with the tools and knowledge necessary to understand and shape technologies, and 3) encouraging citizen participation in the development of technologies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com a evolução dos recursos computacionais e o desenvolvimento dos modelos constitutivos disponíveis na avaliação do comportamento estrutural de elementos de betão armado, é comum recorrer-se cada vez mais a modelos numéricos que consideram a não-linearidade física e geométrica. As simulações numéricas obtidas com recurso a este tipo de modelos computacionais permitem obter um historial completo do comportamento estrutural, desde o início da aplicação do carregamento, até ao colapso total da estrutura. Contudo, verifica-se que em zonas de descontinuidade geométrica em estruturas de betão armado, a evolução do padrão de fendilhação é um fenómeno relativamente complexo, cuja simulação numérica representa um desafio considerável. O objectivo deste trabalho é o de verificar a aplicabilidade do Método dos Elementos Aplicados no estudo do desenvolvimento do padrão de fendilhação em paredes de betão armado, solicitadas por um carregamento monotónico. Foi analisado um conjunto de dez paredes, todas com uma abertura que provoca uma zona de descontinuidade geométrica e, consequentemente, um padrão de fendilhação mais complexo. Cada parede tem uma pormenorização de armadura diferente, permitindo verificar a fiabilidade do modelo computacional. Os resultados numéricos foram comparados com ensaios experimentais realizados por Bounassar Filho [8], permitindo tirar conclusões sobre as vantagens e as limitações deste método, quando aplicado ao estudo de estruturas de betão armado solicitadas por cargas monotónicas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo principal a implementação de uma arquitetura baseada em algoritmos evolutivos para a sintonização dos parâmetros do controlador PID (Proporcional-Integral-Derivativo) difuso, sendo o conceito de desempenho em malha fechada explicitamente tido em conta. A sintonização dos parâmetros do controlador difuso é realizada tendo em conta um problema de otimização com restrições, em que a função de custo a ser minimizada é descrita em termos do desempenho em malha fechada, com a dinâmica do sistema a ser aproximada por um modelo não linear. Como nas metodologias de otimização existentes, a incorporação de mecanismos de adaptação referentes às funções de pertença não é comum, na presente dissertação é tido em conta, para além da usual sintonização dos fatores de escala, a sintonização dos fatores de escala e funções de pertença em simultâneo. Os resultados experimentais realizados num sistema de referência, visam demonstrar os benefícios de incorporar as funções de pertença no processo de otimização em diferido. É também utilizado um método analítico de segunda ordem como referência, por forma a comparar o desempenho de uma abordagem de otimização global contra uma de otimização local. Finalmente é implementada uma abordagem em-linha, usando o método analítico de segunda ordem, na otimização dos fatores de escala e funções de pertença.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mutable state can be useful in certain algorithms, to structure programs, or for efficiency purposes. However, when shared mutable state is used in non-local or nonobvious ways, the interactions that can occur via aliases to that shared memory can be a source of program errors. Undisciplined uses of shared state may unsafely interfere with local reasoning as other aliases may interleave their changes to the shared state in unexpected ways. We propose a novel technique, rely-guarantee protocols, that structures the interactions between aliases and ensures that only safe interference is possible. We present a linear type system outfitted with our novel sharing mechanism that enables controlled interference over shared mutable resources. Each alias is assigned separate, local roles encoded in a protocol abstraction that constrains how an alias can legally use that shared state. By following the spirit of rely-guarantee reasoning, our rely-guarantee protocols ensure that only safe interference can occur but still allow many interesting uses of shared state, such as going beyond invariant and monotonic usages. This thesis describes the three core mechanisms that enable our type-based technique to work: 1) we show how a protocol models an alias’s perspective on how the shared state evolves and constrains that alias’s interactions with the shared state; 2) we show how protocols can be used while enforcing the agreed interference contract; and finally, 3) we show how to check that all local protocols to some shared state can be safely composed to ensure globally safe interference over that shared memory. The interference caused by shared state is rooted at how the uses of di↵erent aliases to that state may be interleaved (perhaps even in non-deterministic ways) at run-time. Therefore, our technique is mostly agnostic as to whether this interference was the result of alias interleaving caused by sequential or concurrent semantics. We show implementations of our technique in both settings, and highlight their di↵erences. Because sharing is “first-class” (and not tied to a module), we show a polymorphic procedure that enables abstract compositions of protocols. Thus, protocols can be specialized or extended without requiring specific knowledge of the interference produce by other protocols to that state. We show that protocol composition can ensure safety even when considering abstracted protocols. We show that this core composition mechanism is sound, decidable (without the need for manual intervention), and provide an algorithm implementation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO: Este trabalho teve como objetivo a determinação de esquemas de tratamento alternativos para o carcinoma da próstata com radioterapia externa (EBRT) e braquiterapia de baixa taxa de dose (LDRBT) com implantes permanentes de Iodo-125, biologicamente equivalentes aos convencionalmente usados na prática clínica, com recurso a modelos teóricos e a métodos de Monte Carlo (MC). Os conceitos de dose biológica efetiva (BED) e de dose uniforme equivalente (EUD) foram utilizados, com o modelo linear-quadrático (LQ), para a determinação de regimes de tratamento equivalentes. Numa primeira abordagem, utilizou-se a BED para determinar: 1) esquemas hipofracionados de EBRT mantendo as complicações retais tardias de regimes convencionais com doses totais de 75,6 Gy, 77,4 Gy, 79,2 Gy e 81,0 Gy; e 2) a relação entre as doses totais de EBRT e LDRBT de modo a manter a BED do regime convencional de 45 Gy de EBRT e 110 Gy de LDRBT. Numa segunda abordagem, recorreu-se ao código de MC MCNPX para a simulação de distribuições de dose de EBRT e LDRBT em dois fantomas de voxel segmentados a partir das imagens de tomografia computorizada de pacientes com carcinoma da próstata. Os resultados das simulações de EBRT e LDRBT foram somados e determinada uma EUD total de forma a obterem-se: 1) esquemas equivalentes ao tratamento convencional de 25 frações de 1,8 Gy de EBRT em combinação com 110 Gy de LDRBT; e 2) esquemas equivalentes a EUD na próstata de 67 Gy, 72 Gy, 80 Gy, 90 Gy, 100 Gy e 110 Gy. Em todos os resultados nota-se um ganho terapêutico teórico na utilização de esquemas hipofracionados de EBRT. Para uma BED no reto equivalente ao esquema convencional, tem-se um aumento de 2% na BED da próstata com menos 5 frações. Este incremento dá-se de forma cada vez mais visível à medida que se reduz o número de frações, sendo da ordem dos 10-11% com menos 20 frações e dos 35-45% com menos 40 frações. Considerando os resultados das simulações de EBRT, obteve-se uma EUD média de 107 Gy para a próstata e de 42 Gy para o reto, com o esquema convencional de 110 Gy de LDRBT, seguidos de 25 frações de 1,8 Gy de EBRT. Em termos de probabilidade de controlo tumoral (igual EUD), é equivalente a este tratamento a administração de EBRT em 66 frações de 1,8 Gy, 56 de 2 Gy, 40 de 2,5 Gy, 31 de 3 Gy, 20 de 4 Gy ou 13 de 5 Gy. Relativamente à administração de 66 frações de 1,8 Gy, a EUD generalizada no reto reduz em 6% com o recurso a frações de 2,5 Gy e em 10% com frações de 4 Gy. Determinou-se uma BED total de 162 Gy para a administração de 25 frações de 1,8 Gy de EBRT em combinação com 110 Gy de LDRBT. Variando-se a dose total de LDRBT (TDLDRBT) em função da dose total de EBRT (TDEBRT), de modo a garantir uma BED de 162 Gy, obteve-se a seguinte relação:.......... Os resultados das simulações mostram que a EUD no reto diminui com o aumento da dose total de LDRBT para dose por fração de EBRT (dEBRT) inferiores a 2, Gy e aumenta para dEBRT a partir dos 3 Gy. Para quantidades de TDLDRBT mais baixas (<50 Gy), o reto beneficia de frações maiores de EBRT. À medida que se aumenta a TDLDRBT, a EUD generalizada no reto torna-se menos dependente da dEBRT. Este trabalho mostra que é possível a utilização de diferentes regimes de tratamento para o carcinoma da próstata com radioterapia que possibilitem um ganho terapêutico, quer seja administrando uma maior dose biológica com efeitos tardios constantes, quer mantendo a dose no tumor e diminuindo a toxicidade retal. A utilização com precaução de esquemas hipofracionados de EBRT, para além do benefício terapêutico, pode trazer vantagens ao nível da conveniência para o paciente e economia de custos. Os resultados das simulações deste estudo e conversão para doses de efeito biológico para o tratamento do carcinoma da próstata apresentam linhas de orientação teórica de interesse para novos ensaios clínicos. --------------------------------------------------ABSTRACT: The purpose of this work was to determine alternative radiotherapy regimens for the treatment of prostate cancer using external beam radiotherapy (EBRT) and low dose-rate brachytherapy (LDRBT) with Iodine-125 permanent implants which are biologically equivalent to conventional clinical treatments, by the use of theoretical models and Monte Carlo techniques. The concepts of biological effective dose (BED) and equivalent uniform dose (EUD), together with the linear-quadratic model (LQ), were used for determining equivalent treatment regimens. In a first approach, the BED concept was used to determine: 1) hypofractionated schemes of EBRT maintaining late rectal complications as with the conventional regimens with total doses of 75.6 Gy, 77.4 Gy, 79.2 Gy and 81.0 Gy; and 2) the relationship between total doses of EBRT and LDRBT in order to keep the BED of the conventional treatment of 45 Gy of EBRT and 110 Gy of LDRBT. In a second approach, the MC code MCNPX was used for simulating dose distributions of EBRT and LDRBT in two voxel phantoms segmented from the computed tomography of patients with prostate cancer. The results of the simulations of EBRT and LDRBT were added up and given an overall EUD in order to obtain: 1) equivalent to conventional treatment regimens of 25 fraction of 1.8 Gy of EBRT in combination with 110Gy of LDRBT; and 2) equivalent schemes of EUD of 67 Gy, 72 Gy, 80 Gy, 90 Gy, 100 Gy, and 110Gy to the prostate. In all the results it is noted a therapeutic gain using hypofractionated EBRT schemes. For a rectal BED equivalent to the conventional regimen, an increment of 2% in the prostate BED was achieved with less 5 fractions. This increase is visibly higher as the number of fractions decrease, amounting 10-11% with less 20 fractions and 35-45% with less 20 fractions. Considering the results of the EBRT simulations an average EUD of 107 Gy was achieved for the prostate and of 42 Gy for the rectum with the conventional scheme of 110 Gy of LDRBT followed by 25 fractions of 1.8 Gy of EBRT. In terms of tumor control probability (same EUD) it is equivalent to this treatment, for example, delivering the EBRT in 66 fractions of 1.8 Gy, 56 fractions of 2 Gy, 40 fractions of 2.5 Gy, 31 fractions of 3 Gy, 20 fractions of 4 Gy or 13 fractions of 5 Gy. Regarding the use of 66 fractions of 1.8 Gy, the rectum EUD is reduced to 6% with 2.5 Gy per fraction and to 10% with 4 Gy. A total BED of 162 Gy was achieved for the delivery of 25 fractions of 1.8 Gy of EBRT in combination with 110 Gy of LDRBT. By varying the total dose of LDRBT (TDLDRBT) with the total dose of EBRT (TDEBRT) so as to ensure a BED of 162 Gy, the following relationship was obtained: ....... The simulation results show that the rectum EUD decreases with the increase of the TDLDRBT, for EBRT dose per fracion (dEBRT) less than 2.5 Gy and increases for dEBRT above 3 Gy. For lower amounts of TDLDRBT (< 50Gy), the rectum benefits of larger EBRT fractions. As the TDLDRBT increases, the rectum gEUD becomes less dependent on the dEBRT. The use of different regimens which enable a therapeutic gain, whether deivering a higher dose with the same late biological effects or maintaining the dose to the tumor and reducing rectal toxicity is possible. The use with precaution of hypofractionated regimens, in addition to the therapeutic benefit, can bring advantages in terms of convenience for the patient and cost savings. The simulation results of this study together with the biological dose conversion for the treatment of prostate cancer serve as guidelines of interest for new clinical trials.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work presents a model and a heuristic to solve the non-emergency patients transport (NEPT) service issues given the new rules recently established in Portugal. The model follows the same principle of the Team Orienteering Problem by selecting the patients to be included in the routes attending the maximum reduction in costs when compared with individual transportation. This model establishes the best sets of patients to be transported together. The model was implemented in AMPL and a compact formulation was solved using NEOS Server. A heuristic procedure based on iteratively solving problems with one vehicle was presented, and this heuristic provides good results in terms of accuracy and computation time.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Técnicas de sensoriamento remoto são fundamentais para o monitoramento das mudanças de uso da terra, principalmente em áreas extensas como a Amazônia. O mapeamento de uso da terra, geralmente é realizado por métodos de classificação manual ou digital pixel a pixel, os quais consomem muito tempo. Este estudo aborda a aplicação do modelo linear de mistura em uma imagem Landsat-TM segmentada para o mapeamento das classes de uso da terra na região do reservatório de Tucuruí-PA para os anos de 1996 e 2001.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo desta pesquisa foi avaliar os dados do sensor MODIS para detectar e monitorar cicatrizes de áreas recém queimadas. Utilizamos imagens da reflectância de superfície do sensor MODIS: produto MOD09 (dia 5 de outubro) e produto MOD13A1 (meses de outubro e novembro). Foi avaliada também uma série temporal de um ano dos índices de vegetação (IV) EVI e NDVI (produto MOD13A1). Uma imagem do sensor ETM+ (dia 5 de outubro) foi utilizada como base para a delimitação dos polígonos amostrais e avaliação dos dados MODIS devido a sua melhor resolução espacial. A metodologia focou na aplicação do modelo linear de mistura espectral nas imagens reflectância para a geração das imagens fração sombra. Análises de regressão foram efetuadas para comparação entre o percentual de sombra derivado da imagem ETM+ e das imagens MODIS. As alterações multitemporais nas imagens IV foram avaliadas com base no teste de Tukey. Os resultados mostraram que a imagem fração sombra gerada a partir do produto MOD09 apresentou um R² = 0,66 (p < 0,01) em relação aos dados ETM+. Para as imagens do produto MOD13A1 não foram identificadas relações significativas. Os IV dentro dos mesmos polígonos apresentaram uma variação sazonal durante o ano. No entanto, não houve uma diminuição significativa dos valores destes índices nos meses onde foram observadas as cicatrizes de áreas recém queimadas. Portanto, o produto MOD09 mostrou-se mais eficiente que o produto MOD13A1 para a detecção de cicatrizes de áreas recém queimadas. A análise multitemporal dos IV sugeriu que não foi possível detectar este mesmo padrão na área de estudo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Open Display Networks have the potential to allow many content creators to publish their media to an open-ended set of screen displays. However, this raises the issue of how to match that content to the right displays. In this study, we aim to understand how the perceived utility of particular media sharing scenarios is affected by three independent variables, more specifically: (a) the locativeness of the content being shared; (b) how personal that content is and (c) the scope in which it is being shared. To assess these effects, we composed a set of 24 media sharing scenarios embedded with different treatments of our three independent variables. We then asked 100 participants to express their perception of the relevance of those scenarios. The results suggest a clear preference for scenarios where content is both local and directly related to the person that is publishing it. This is in stark contrast to the types of content that are commonly found in public displays, and confirms the opportunity that open displays networks may represent a new media for self-expression. This novel understanding may inform the design of new publication paradigms that will enable people to share media across the display networks.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Amazonian biodiversity is notorious, this is also valid for the fauna of the mineral-deficient waters of the Rio Negro System. Some 25 years of research on the benthic fauna of Central Amazonian streams resulted in species-rich foodwebs with a high degree of omnivory within dense animal communities. To exemplify the taxonomic range of omnivorous consumers, the detailed resource spectra of 18 consumer species, including Protozoa (2 species), Platyhelminthes (1 species), insects (2 species), fish (6 species) and shrimps (Decapoda, 7 species), associated primarily with the benthic habitats of Rio Negro tributaries, are presented. Special features of omnivory are characterized, and the importance of litter-decomposing fungi as essential energy input into the foodwebs is documented. It is shown that general omnivory -diverse omnivore consumers sharing most of the resource types- is a prevalent feature. The relevance of this general omnivory for the maintenance of biodiversity is discussed.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Wireless body sensor networks (WBSNs) constitute a key technology for closing the loop between patients and healthcare providers, as WBSNs provide sensing ability, as well as mobility and portability, essential characteristics for wide acceptance of wireless healthcare technology. However, one important and difficult aspect of WBSNs is to provide data transmissions with quality of service, among other factors due to the antennas being small size and placed close to the body. Such transmissions cannot be fully provided without the assumption of a MAC protocol that solves the problems of the medium sharing. A vast number of MAC protocols conceived for wireless networks are based on random or scheduled schemes. This paper studies firstly the suitability of two MAC protocols, one using CSMA and the other TDMA, to transmit directly to the base station the signals collected continuously from multiple sensor nodes placed on the human body. Tests in a real scenario show that the beaconed TDMA MAC protocol presents an average packet loss ratio lower than CSMA. However, the average packet loss ratio is above 1.0 %. To improve this performance, which is of vital importance in areas such as e-health and ambient assisted living, a hybrid TDMA/CSMA scheme is proposed and tested in a real scenario with two WBSNs and four sensor nodes per WBSN. An average packet loss ratio lower than 0.2 % was obtained with the hybrid scheme. To achieve this significant improvement, the hybrid scheme uses a lightweight algorithm to control dynamically the start of the superframes. Scalability and traffic rate variation tests show that this strategy allows approximately ten WBSNs operating simultaneously without significant performance degradation.