999 resultados para Lógica do plausível
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
El nuevo escenario internacional produce lo que se ha dado en caracterizar como la globalización del derecho, especialmente en el ámbito de los derechos humanos. En este contexto se analiza la incidencia del Sistema Interamericano de protección de los Derechos Humanos con especial énfasis en el derecho de la información, desde la optica del derecho interno. Nos preguntamos acerca de cómo se presenta la tensión entre la lógica estatal con su rasgo de afirmación en la soberanía y monopolio en la creación de la jurisdicción doméstica, con la doctrina del derecho internacional de los derechos humanos, que consecuentemente conduce hacia una globalización jurídica de estos temas. Esto refleja un debilitamiento en el monopolio de creación y aplicación del derecho por parte de los Estados. A partir de este dato del escenario internacional buscamos determinar la incidencia de los informes de la Comisión Interamericana de Derechos Humanos y los pronunciamientos de la Corte Interamericana en materia de derecho de la información y su influencia en la jurisprudencia y creación de legislación en nuestro país. The new internacional scenario produces wtah has come to be characterized as the globalization of law, especially in the field of the human rights. In this context we analyze the impact of the Inter-American system of human Rights, whit particular emphasis on media law in domestic law
Resumo:
Las ciudades de América Latina se han caracterizado por su patrón de segregación residencial socioeconómica (SRS). Sin embargo, a partir de la supremacía de la lógica del mercado inmobiliario y de suelo en dirección del desarrollo urbano, este fenómeno cobra relevancia debido a la profundización del mismo, produciéndose una mayor concentración de población homogénea en sectores específicos de la ciudad, que debilita las posibilidades de interrelación entre los distintos grupos sociales. Asimismo, se evidencia que la localización territorial residencial se relaciona directamente con el acceso a servicios y consumos colectivos, representando una de las condiciones de inequidad social y reproducción de la pobreza en las ciudades, lo cual pone en tensión las reales posibilidades del disfrute del derecho a la ciudad por parte de todos los ciudadanos. En la ciudad de Córdoba, durante la última década, ante el desarrollo de los proyectos residenciales ejecutados por las empresas constructoras (countries, torres, etc) y de los complejos estatales de vivienda social en los sectores periféricos, el proceso de segregación socioeconómica residencial se ha ido (y se está) transformando. En este sentido, en este estudio nos interesa analizar el nivel SRS en la ciudad, así como las representaciones y prácticas de los distintos agentes involucrados en la construcción de los territorios urbanos. La hipótesis que orienta nuestro trabajo es que no siempre existen coincidencias entre las representaciones y prácticas de la ciudadanía afectada por situaciones de segregación y aquellas que tienen los sectores públicos y/o privados con incidencia también en estas problemáticas. De aquí que el propósito del trabajo sea confrontar las distintas miradas y acciones que coexisten en la construcción de estos territorios en la ciudad, y en base a ese diagnóstico, proponer estrategias de superación ante dichas tensiones e incompatibilidades.
Resumo:
FUNDAMENTO: Grandes estudos clínicos empregando os betabloqueadores carvedilol, metoprolol, bisoprolol e nebivolol, demonstraram melhora da sobrevida e dos sintomas em pacientes com insuficiência cardíaca. Apesar da falta de evidências científicas, é plausível que o efeito benéfico seja extensível a outros betabloqueadores. OBJETIVO: Avaliar em pacientes com insuficiência cardíaca o impacto da substituição do carvedilol por propranolol sobre a função ventricular esquerda, capacidade funcional, qualidade de vida, níveis pressóricos e controle autonômico cardíaco. MÉTODOS: Vinte e nove pacientes com terapêutica medicamentosa otimizada incluindo doses máximas toleradas de carvedilol foram divididos em dois grupos: substituição de carvedilol por propranolol (n = 15) e manutenção de carvedilol (n = 14). Na condição basal, e após 6 meses, foram realizadas avaliações clínica e laboratorial com: ventriculografia nuclear, ecocardiografia, questionário de Minnesota, teste de caminhada, MAPA e Holter. RESULTADOS: As características laboratoriais e demográficas foram similares nos dois grupos na avaliação inicial. Ajuste individualizado da dose do propranolol garantiu grau semelhante de betabloqueio avaliado pela frequência cardíaca em repouso e reserva cronotrópica. A dose média de propranolol usada foi 109 ± 43 mg/dia. Apenas um paciente apresentou intolerância ao propranolol com retorno do carvedilol. Foi registrado um óbito no grupo propranolol. A fração de ejeção apresentou aumento significativo no grupo propranolol. As demais variáveis cardiovasculares não sofreram modificações significativas após troca do betabloqueador. CONCLUSÃO: Nossos resultados indicam que a substituição do carvedilol por propranolol em pacientes com insuficiência cardíaca não está associada à deterioração da fração de ejeção, da capacidade funcional, da qualidade de vida e das variáveis cardiovasculares de controle pressórico e autonômico.
Resumo:
FUNDAMENTO: É plausível que a aterosclerose subclínica altere a reserva coronariana e comprometa a função diastólica do ventrículo esquerdo. Entretanto, a associação entre os estágios subclínicos da aterosclerose e a função diastólica não foi estabelecida em indivíduos livres de doença cardiovascular. OBJETIVO: Testar a hipótese de que a aterosclerose subclínica tenha uma associação negativa com a função diastólica. MÉTODOS: Indivíduos > 35 anos de idade, sem doença cardiovascular, com pressão arterial normal e teste de esforço na esteira negativo, foram selecionados para avaliação da espessura da camada íntima-média (EIM) carotídea através de ultrassonografia e dos parâmetros de função diastólica através de ecocardiografia, primariamente a razão E'/A' através do Doppler tecidual. RESULTADOS: Quarenta e oito indivíduos, com idade de 56 ± 10 anos, 67% do sexo feminino foram estudados. A EIM carotídea apresentou uma correlação negativa significante com a razão E'/A' no Doppler tecidual (r = - 0,437, p = 0,002). Indivíduos no quarto quartil da EIM apresentavam uma razão E'/A' significantemente mais baixa no Doppler tecidual (0,76 ± 0,25), quando comparados a indivíduos no primeiro (1,2 ± 0,29), segundo (1,2 ± 0,36) e terceiro quartis (1,1 ± 0,25) - p = 0,002. A EIM carotídea no quarto quartil (> 0,8 mm) foi preditor independente da razão E'/A' (p = 0,02), após ajustes para variáveis potencialmente confundidoras, tais como idade, sexo feminino, circunferência da cintura, pressão arterial diastólica, HDL-colesterol e Risco de Framingham. CONCLUSÃO: O estágio inicial da doença arterial aterosclerótica está negativamente associado com os parâmetros de função diastólica em indivíduos saudáveis, independente da idade e características clínicas.
Resumo:
FUNDAMENTO: Ultrassom Intracoronariano (USIC) tem sido usado como um método auxiliar a fim de otimizar o implante de stents. No entanto, o impacto desse método em alguns resultados é controverso. OBJETIVO: Analisar sistematicamente o impacto dos stents coronarianos guiados por USIC, em comparação com os stents guiados angiograficamente, sobre os resultados clínicos e angiográficos. MÉTODOS: Foi realizada uma busca em bases de dados (MEDLINE, Cochrane CENTRAL, EMBASE) e referências de estudos publicados entre 1982 e 2010. Foram incluídos Ensaios Clínicos Randomizados (ECR) que compararam o implante de stents coronarianos guiados por angiografia e USIC versus implante de stents coronarianos guiados apenas por angiografia (ANGIO). O seguimento mínimo foi de seis meses e os resultados avaliados foram eventos cardíacos adversos importantes (MACE), Revascularização da Lesão-alvo (RLA) e reestenose angiográfica. Dois revisores extraíram os dados de forma independente. Razão de risco sumário e intervalos de confiança de 95% (CI) foram calculados com modelos com efeitos aleatórios. A abordagem GRADE foi utilizada para determinar a qualidade geral de evidências para cada resultado. RESULTADOS: Dos 3.631 artigos identificados, oito ECR avaliando um total de 2.341 pacientes foram incluídos. Houve uma redução de 27% na reestenose angiográfica (95% IC: 3% -46%) e uma redução de 38% em RLA (95% IC: 17% -53%) em favor de USIC versus ANGIO. No entanto, os MACE não foram reduzidos por USIC (RR: 0,79; 95%CI: 0,61-1,03). Os dados MACE representam apenas 47% do tamanho ótimo de informações necessárias para detectar com segurança um efeito de tratamento plausível. CONCLUSÕES: Observamos que o implante de stent coronariano guiado por USIC oferece reduções significativas em RLA e reestenose angiográfica em comparação com implante de stent guiado por angiografia, porém não reduz casos de MACE.
Resumo:
FUNDAMENTO: Hiperglicemia na fase aguda do infarto do miocárdio é importante fator prognóstico. Entretanto, sua fisiopatologia não está completamente elucidada. OBJETIVO: Analisar simultaneamente correlação entre hiperglicemia e marcadores bioquímicos relacionados ao estresse,metabolismo glicídico e lipídico, coagulação, inflamação e necrose miocárdica. MÉTODOS: Oitenta pacientes com infarto agudo do miocárdio foram incluídos prospectivamente. Os parâmetros analisados foram: glicose, hormônios do estresse (cortisol e norepinefrina), fatores do metabolismo glicídico [hemoglobina glicada (HbA1c), insulina], lipoproteínas (colesterol total, LDL, HDL, LDL eletronegativa minimamente modificada e adiponectina), glicerídeos (triglicérides, VLDL e ácido graxo), fatores da coagulação (fator VII, fibrinogênio,inibidor do ativador do plasminogênio-1), inflamação (proteína C reativa ultrassensível) e necrose miocárdica (CK-MB e troponina). Variáveis contínuas foram convertidas em graus de pertinência por intermédio de lógica fuzzy. RESULTADOS: Houve correlação significativa entre hiperglicemia e metabolismo glicídico (p < 0,001), lipoproteínas (p = 0,03) e fatores de necrose (p = 0,03). Na análise multivariada, somente metabolismo glicídico (OR = 4,3; IC = 2,1-68,9 e p < 0,001) e necrose miocárdica (OR = 22,5; IC = 2-253 e p = 0,012) mantiveram correlação independente e significativa.Para análise da influência da história de diabetes mellitus , modelo de regressão, incluindo somente pacientes sem diabetes mellitus foi desenvolvido, e os resultados não alteraram. Finalmente, no modelo ajustado para idade, sexo e variáveis clínicas(história de diabetes mellitus, hipertensão arterial e dislipidemia), três variáveis mantiveram associação significativa e independente com hiperglicemia: metabolismo glicídico (OR = 24,1; IC = 4,8-122,1 e p < 0,001) necrose miocárdica (OR = 21,9; IC = 1,3-360,9 e p = 0,03) e história de DM (OR = 27, IC = 3,7-195,7 e p = 0,001). CONCLUSÃO: Marcadores do metabolismo glicídico e necrose miocárdica foram os melhores preditores de hiperglicemia em pacientes com infarto agudo do miocárdio.
Resumo:
Por meio de colunas de terra, convenientemente preparadas em laboratório, em tubos cilíndricos, estudou-se a distribuição da umidade no momento da infiltração, aplicando-se água em forma de gotas, simulando chuva, a oito diferentes intensidades, com duas repetições para cada tratamento. Verificou-se que quando se reduzia a intensidade de aplicação da água, a intervalos mais ou menos constantes, aquele teor de umidade também decrescia, e vice-versa. Constatou-se também que, quando as intensidades de gotejamento eram muito pequenas, o teor de umidade se reduzia com menor intensidade, caminhando para um limite, ao qual se atribuia com lógica e senso, ser a capacidade de campo do solo.
Resumo:
És un text epistemològic sobre les qüestions cognitives circulars que apareixen: a) Quan el subjecte forma part de l’objecte estudiat; b) En la recerca de les bases del coneixement; c) Al voler justificar la inducció; d) En algunes interpretacions filosòfiques i científiques. S’hi explica l’estat del punt a) el més problemàtic, i s’aclareixen els altres tres punts: els b) i c) pel fet científic que l’evolució cognitiva humana ha anat acoblada a l’evolució biològica, la qual ha generat els a priori kantians i altres innatismes. El d) perquè la formació del coneixement i de la ciència es progressiva, passant una i altra vegada sobre el que ja s’havia tractat però ascendint alhora i ampliant el panorama, tal com fa una escala de cargol.
Resumo:
Es presenta críticament l’obra de Hans-Robert Jauss, fent incís en la seva teoria de l’experiència estètica. El capítol 1 descriu el context de l’obra d’aquest esteta i hermeneuta alemany en tres àmbits: a) l’ històricointel•lectual, que s’emmarca dintre la teoria literària de la recepció o Escola de Constança; b) l’evolució en el temps teòrica de l’obra, i c) la seva pretesa relació amb la postmodernitat. El capítol 2 relaciona les aportacions teòriques de Jauss amb el seu antecedent filosòfic més important: l’hermenèutica de Gadamer. El tercer capítol presenta la teoria de l’experiència estètica de Jauss, deixada al marge pel nostre àmbit acadèmic, malgrat el seu interès, i en fa una valoració crítica. Finalment, un Annex sobre la teoria estètica kantiana i una conclusió indiquen la continuació d’aquesta investigació.
Resumo:
Treball de recerca realitzat per un alumne d’ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l’any 2006. La construcció d'un microrobot autònom capaç de realitzar una funció per ell mateix, ha permès exposar una introducció en el món de l'electrònica i la mecànica pràctiques. Es tracta d’un microrobot rastrejador: capaç de seguir una línia pintada al terra, per mitjà d'unes entrades (sensors detectors de llum), una lògica (C.I. operacionals) i uns motors motrius comandats per mitjà d'un C.I. driver. S’adjunten imatges dels resultats.
Resumo:
How did the leading capital market start to attract international bullion? Why did London become the main money market? Monetary regulations, including the charges for minting money and the restrictions on bullion exchange, have played the key role in defining the direction of the flow of international bullion. Countries that abolished minting charges and permitted the free movement of bullion were able to attract international bullion, and countries that applied minting taxes suffered an outflow of bullion. In these cases monetary authorities tried to limit bullion movement through prohibitions on domestic bullion exchange at a free price, and tariffs and quantitative restrictions on bullion exports. The paper illustrates the logic of international monetary flow in the 18th century, using empirical evidence for England, France and Spain. The first section defines and measures monetary policy, and the second section introduces minting charges into the arbitrage equation in order to explain the logic of bullion flow between the pairs of nations England-France, England-Spain and France-Spain. The conclusion emphasises the importance of monetary policy in the creation of leading money markets.
Resumo:
Este documento pretende ser un instrumento para favorecer la mejora de accesibilidad, pero no tiene una caracterización fácil dada la diversidad de aspectos abordados. En primer lugar parte del estudio de los condicionantes normativos y económicos que inciden sobre el mercado hotelero y los fallos o consecuencias negativas que el diseño de las normas puede tener para la penetración de la accesibilidad en los hoteles, lo que da pie a consideraciones sobre la intervención pública, la aplicabilidad de los instrumentos normativos y el control de su cumplimiento. Como documento de investigación, plantea una metodología de análisis e interpretación del proceso de incorporación de accesibilidad en los hoteles, buscando que este no se focalice exclusivamente en la reforma de espacios, sino en la consideración de los procesos y acciones que desarrolla el viajero, como forma de favorecer la continuidad y la lógica finalista de las intervenciones. Un tercer bloque viene constituido por la presentación de un amplio trabajo de campo con directores de 22 hoteles de los que 17 respondieron a un cuestionario y 10 fueron entrevistados de manera informal, puesto que sus planteamientos, conocimiento y problemática no suele analizarse suficientemente en los trabajos de accesibilidad hotelera. Por último, y a partir de las fotografías que se han podido tomar en los hoteles visitados, se plantean algunas soluciones y comentarios sencillos y visuales a problemas recogidos en la realidad, con el fin de ser didáctico y ofrecer pautas concretas de solución para cada tipo de problema detectado.
Resumo:
We present a solution to the problem of defining a counterpart in Algebraic Set Theory of the construction of internal sheaves in Topos Theory. Our approach is general in that we consider sheaves as determined by Lawvere-Tierney coverages, rather than by Grothen-dieck coverages, and assume only a weakening of the axioms for small maps originally introduced by Joyal and Moerdijk, thus subsuming the existing topos-theoretic results.