68 resultados para Probabilidade de default
Resumo:
A concessão de crédito a empresas que participam do mercado consiste na entrega de um ativo em determinado momento, com a promessa de pagamento deste bem ou direito em data futura. Tal situação se configura como um evento incerto, pois existe a possibilidade de que tal obrigação não seja honrada pela promitente compradora, originando desta forma, o risco de crédito. Cabe à parte concessora do ativo que origina o risco de crédito, verificar a capacidade de seu cliente em cumprir o compromisso futuro assumido, analisando as variáveis que sugerem o sucesso da operação de crédito. As empresas que se encontram em fase de implantação caracterizam-se não somente pela ausência de histórico das variáveis acima, como também pelo aumento considerável do risco de continuidade. Tal situação é comprovada por pesquisas realizadas em empresas com até cinco anos de atuação. A impossibilidade na mensuração da capacidade de crédito proporcionada por este cenário, ocasiona severa restrição creditícia às empresas novas, principalmente ao crédito de longo prazo, imprescindível nesta fase de investimentos. Entretanto, esta restrição não se verifica em empresas de franquia, cujo empreendedor tem o privilégio de iniciar seu negócio com linhas de crédito de investimentos já prontas no mercado com esta finalidade. Este estudo objetiva identificar quais as características presentes em empresas franqueadas que permitem a concessão de crédito segura na fase de implantação por parte das instituições financeiras e se tais características podem discriminar variáveis que são determinantes no sucesso da franqueada proponente ao crédito bancário. A aplicação de análise fatorial em banco de dados com empresas de franquia permitiu identificar com sucesso um grupo de sete principais variáveis principais, que serviram de base a um modelo de regressão logística e análise discriminante. O modelo de regressão logística mostrou-se bom para a melhora da probabilidade de acerto de empresas solventes ao passo que a análise discriminante não apresentou melhora nesses resultados.
Resumo:
Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.
Resumo:
A presente dissertação trata da estipulação de limite de crédito para empresas clientes, de modo automático, com o uso de técnicas de Inteligência Computacional, especificamente redes neurais artificiais (RNA). Na análise de crédito as duas situações mais críticas são a liberação do crédito, de acordo com o perfil do cliente, e a manutenção deste limite ao longo do tempo de acordo com o histórico do cliente. O objeto desta dissertação visa a automação da estipulação do limite de crédito, implementando uma RNA que possa aprender com situações já ocorridas com outros clientes de perfil parecido e que seja capaz de tomar decisões baseando-se na política de crédito apreendida com um Analista de Crédito. O objetivo é tornar o sistema de crédito mais seguro para o credor, pois uma análise correta de crédito de um cliente reduz consideravelmente os índices de inadimplência e mantém as vendas num patamar ótimo. Para essa análise, utilizouse a linguagem de programação VB.Net para o sistema de cadastro e se utilizou do MatLab para treinamento das RNAs. A dissertação apresenta um estudo de caso, onde mostra a forma de aplicação deste software para a análise de crédito. Os resultados obtidos aplicando-se as técnicas de RNAs foram satisfatórias indicando um caminho eficiente para a determinação do limite de crédito.
Resumo:
As leishmanioses são doenças consideradas antropozoonoses, ou seja, doenças primárias de animais que podem ser transmitidas ao homem. São causadas por microorganismos do gênero Leishmania e transmitidas através da picada de flebotomíneos, que são insetos alados da ordem Diptera (mesmo grupo das moscas, mosquitos e borrachudos). Apresentam-se sob duas formas clínicas: Leishmaniose Visceral ou Calazar (LV) e Leishmaniose Tegumentar Americana (LTA). As leishmanioses apresentam distribuição geográfica vasta pelo Velho e Novo Mundo, sendo estimado dessa maneira que aproximadamente 350 milhões de pessoas estejam sob iminente risco de contrair algum tipo de leishmaniose. No Brasil, as leishmanioses são encontradas em todas as unidades federadas, e o estado do Rio de Janeiro vem apresentando franca expansão dessas doenças em áreas urbanas, devido principalmente ao desmatamento ocasionado pela expansão não planejada da malha urbana. Nesse contexto, faz-se necessário desenvolver estudos sobre o espaço e o processo saúde-doença, relação estabelecida pela Geografia da Saúde, a fim de que se compreenda a correlação entre o homem e o ambiente vivido.
Resumo:
A carcinogênese epitelial ovariana tem sido foco de estudos científicos em todo o mundo desenvolvido. A angiogênese tumoral ovariana é um processo multifatorial que resulta em vários produtos pró-angiogênicos. Entre eles, o fator de crescimento vascular endotelial (VEGF) é predominante. Os objetivos deste estudo foram relacionar as dosagens do VEGF dos fluidos peritoneais, do plasma periférico e do infundíbulo pélvico aos níveis de citorredução em pacientes operadas de adenocarcinoma epitelial de ovário (CEO); formular um modelo probabilístico de citorredução e utilizar estas dosagens para estimar a probabilidade do desfecho de citorredução. Além disto, foi criada uma nova variável chamada carga de VEGF. Pelo procedimento step-wise a citorredução foi melhor descrita pela carga de VEGF, mas faltou Normalidade aos resíduos, não sendo possível a adequação de um modelo matemático. Porém, a curva ROC, forneceu uma área sob a curva de 0,84, com sensibilidade de 71,4 % e especificidade variando de 69,5 a 73,9%. O ponto de corte ótimo foi 15,52 log de picograma de carga de VEGF. A odds-ratio (OR) calculada para citorredução ótima descrita pela carga de VEGF foi de 11 (IC= 2,59 ; 46,78). No grupo com estágio avançado (III e IV), a OR foi de 6 (IC= 1,15; 31,22). Apesar do pequeno número de casos, esta nova variável pode vir a ser um auxiliar na determinação de situações onde cirurgia citorredutora deixa de ser a pedra fundamental do tratamento primário do CEO e a indução quimioterápica passe a ter o principal papel na citorredução química antes da cirugia nestes casos.
Resumo:
A abrangente constitucionalização, o acesso ao direito, ainda que incipiente, no Brasil, o dinamismo de uma sociedade massificada e o fluxo quase instantâneo de informações e de ideias colocaram e vem colocando em xeque o Estado enquanto provedor dos direitos básicos e, dentre eles, o acesso à justiça e a correlata função jurisdicional. Autorizado magistério doutrinário vislumbrou, como se verá, apresentar o sistema brasileiro, no que concerne à estabilização da relação processual, em específico, mais desvantagens do que vantagens. Entreviu-se, assim, oportunidade de uma revisitação do sistema processual, aproveitando-se a legislação e ideário vigentes, em uma perspectiva mais profícua e no intuito de se conferir tudo aquilo e exatamente aquilo que se busca pelo processo, enfim, maior probabilidade de pacificação. Assim, o propósito da presente dissertação é estudar o aproveitamento da demanda quanto aos fatos dedutíveis pelas partes e que advenham ou sejam conhecidos no curso do processo como meio, então, de concretização do processo justo, um processo balizado por garantias, um processo humanizado e conforme os reclamos da sociedade hodierna. A pesquisa se concentra na legislação, doutrina e jurisprudência brasileiras, contando, outrossim, com singelo exame de ordenamentos similares. Em paralelo, estudam-se os princípios que suportam o tema, notadamente o princípio do contraditório participativo, qualificado que é pela ampla participação dos sujeitos da crise de direito material. O trabalho procura demonstrar, enfim, que é viável a proposta no contexto de um Direito Processual afinado com os ditames constitucionais.
Resumo:
Este estudo avalia o impacto da liberalização comercial entre Brasil e China sobre o comércio, produção, preços, investimento, poupança e emprego. O objetivo da análise é identificar a existência de uma oportunidade de comércio para o Brasil que viabilize um maior crescimento, incremente as exportações brasileiras e reduza o desemprego. A hipótese principal é a existência de ganhos de bem estar no comércio com a China. O modelo utilizado é o GLOBAL TRADE ANALYSIS PROJECT (GTAP) com 10 regiões, 10 produtos, 5 fatores, com retornos constantes de escala e competição perfeita nas atividades de produção. Destacam-se na análise os produtos agropecuários. Utilizam-se três fechamentos macroeconômicos (closure) para avaliar separadamente alguns agregados: a configuração padrão dos modelos CGE (preço da poupança endógeno e pleno emprego); preço da poupança exógeno; e desemprego. Conclui-se que pode haver benefícios para os dois países com o acordo.
Resumo:
Trocadores de calor são equipamentos muito utilizados na indústria de processos com o objetivo de modificar a temperatura e/ou o estado físico de correntes materiais. Uma rede de trocadores de calor pode ser definida como um grupo de trocadores de calor interligados, a fim de reduzir as necessidades de energia de um sistema. No entanto, durante a operação de uma rede, a eficiência térmica dos trocadores de calor diminui devido à deposição. Esse efeito promove o aumento dos custos de combustível e das emissões de carbono. Uma alternativa para mitigar este problema baseia-se no estabelecimento de uma programação das limpezas dos trocadores de calor durante a operação de rede. Este tipo de abordagem ocasiona uma situação na qual ocorre um conflito de escolha: a limpeza de um trocador de calor pode recuperar a sua eficiência térmica, mas implica custos adicionais, tais como, mão-de-obra, produtos químicos, etc. Além disso, durante a limpeza, o trocador de calor tem de ser contornado por uma corrente de by-pass, o que aumenta temporariamente o consumo de energia. Neste contexto, o presente trabalho tem como objetivo explorar diferentes técnicas de otimização envolvendo métodos estocásticos e heurísticos. Com este objetivo foi desenvolvido um conjunto de códigos computacionais integrados que envolvem a simulação pseudo-estacionária do comportamento da rede relacionado com incrustações e a otimização da programação das limpezas deste tipo de sistema. A solução do problema indica os períodos de tempo para a limpeza de cada trocador de calor. Na abordagem estocástica empregada, os parâmetros do algoritmo genético, como probabilidade de crossover e probabilidade de mutação, foram calibrados para o presente problema. A abordagem heurística desenvolvida se deu através da sequência do conjunto de movimentos zero, um e dois. De forma alternativa, desenvolveu-se a metodologia heurística recursiva na qual os conjuntos de movimentos um e dois foram empregados recursivamente. Também foi desenvolvida a abordagem híbrida que consistiu em diferentes combinações da metodologia estocástica e heurística. A análise comparativa entre as metodologias empregadas teve como objetivo avaliar a abordagem mais adequada para o presente problema da programação das limpezas em termos de função objetivo e esforço computacional. O desempenho da abordagem proposta foi explorado através de uma série de exemplos, incluindo uma refinaria real brasileira. Os resultados foram promissores, indicando que as técnicas de otimização analisadas neste trabalho podem ser abordagens interessantes para operações que envolvam redes de trocadores de calor. Dentre as abordagens de otimização analisadas, a metodologia heurística desenvolvida no presente trabalho apresentou os melhores resultados se mostrando competitiva frente às abordagens comparadas da literatura
Resumo:
Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.
Resumo:
A tuberculose (TB) é uma doença que foi declarada pela Organização Mundial de Saúde como emergência mundial em 1993. As ferramentas disponíveis hoje para controle da TB são: o diagnóstico precoce e o tratamento eficiente. Porém, o abandono do tratamento de TB é um problema enfrentado mundialmente em proporções que podem variar entre 3% a 80%. Por isso, a identificação dos fatores que são preditores do abandono do tratamento de TB pode ajudar a desenvolver melhores estratégias para o seu controle. O objetivo deste trabalho é, através de uma metanálise, fazer uma estimativa sumária da medida de associação entre cada um dos fatores (a) relacionados ao serviço de saúde, (b) relacionado ao quadro clínico e à terapia da TB e (c) relacionados aos indivíduos e o abandono do tratamento de TB. A estratégia de busca eletrônica remota para a recuperação de publicações relevantes foi desenvolvida de forma específica para as diferentes bases consideradas relevantes (MEDLINE [Pubmed] e LILCS). Buscas por referências cruzadas, além da consulta à base de revisões sistemáticas COCHRANE, também foram realizadas. Investigações foram incluídas se fossem trabalhos observacionais ou experimentais que estudem fatores de risco ou preditores do desfecho de interesse (abandono do tratamento de tuberculose) através de comparações de dois ou mais grupos e se seus dados pudessem ser extraídos. Dois revisores classificaram os trabalhos e extraíram dados de forma mascarada e as discordâncias resolvidas. Mais de 190 textos completos foram aptos à combinação de dados. Destes, foi possível extrair dados para combinação de 40 exposições. Destas, 19 foram demonstradas nesta investigação. Das 19 demonstradas, 13 exposições estudadas apresentaram associação e poderiam ser considerados preditores (sexo masculino, alcoolismo, infecção pelo HIV/SIDA, uso de drogas ilícitas, nacionalidade estrangeira, analfabetismo, retratamento, baciloscopia positiva, abandono prévio, tratamento de curta duração, acesso fácil à unidade de saúde, treinamento para adesão, tuberculose extrapulmonar) e seis não apresentaram associação (desemprego, efeitos adversos, tuberculose resistente, necessidade de hospitalização, demora para o início do tratamento, espera longa para a consulta). Porém, essas associações devem ser consideradas de forma conservadora devido à elevada heterogeneidade encontrada em todas as exposições. Apenas cinco exposições apresentaram explicação parcial e uma apresentou explicação total para a heterogeneidade. O viés de publicação foi detectado em apenas duas das 19 exposições.
Resumo:
O presente trabalho apresenta um estudo referente à aplicação da abordagem Bayesiana como técnica de solução do problema inverso de identificação de danos estruturais, onde a integridade da estrutura é continuamente descrita por um parâmetro estrutural denominado parâmetro de coesão. A estrutura escolhida para análise é uma viga simplesmente apoiada do tipo Euler-Bernoulli. A identificação de danos é baseada em alterações na resposta impulsiva da estrutura, provocadas pela presença dos mesmos. O problema direto é resolvido através do Método de Elementos Finitos (MEF), que, por sua vez, é parametrizado pelo parâmetro de coesão da estrutura. O problema de identificação de danos é formulado como um problema inverso, cuja solução, do ponto de vista Bayesiano, é uma distribuição de probabilidade a posteriori para cada parâmetro de coesão da estrutura, obtida utilizando-se a metodologia de amostragem de Monte Carlo com Cadeia de Markov. As incertezas inerentes aos dados medidos serão contempladas na função de verossimilhança. Três estratégias de solução são apresentadas. Na Estratégia 1, os parâmetros de coesão da estrutura são amostrados de funções densidade de probabilidade a posteriori que possuem o mesmo desvio padrão. Na Estratégia 2, após uma análise prévia do processo de identificação de danos, determina-se regiões da viga potencialmente danificadas e os parâmetros de coesão associados à essas regiões são amostrados a partir de funções de densidade de probabilidade a posteriori que possuem desvios diferenciados. Na Estratégia 3, após uma análise prévia do processo de identificação de danos, apenas os parâmetros associados às regiões identificadas como potencialmente danificadas são atualizados. Um conjunto de resultados numéricos é apresentado levando-se em consideração diferentes níveis de ruído para as três estratégias de solução apresentadas.
Resumo:
O propósito da tese é analisar em que circunstâncias presidentes brasileiros recorrem a mecanismos de controle político sobre a burocracia pública. O argumento central é que o recurso presidencial a nomeações políticas, decretos regulamentares detalhados e criação de órgãos públicos centralizados na Presidência deverá variar em função de fatores políticos e características das coalizões de governo. Por meio de nomeações políticas, presidentes podem monitorar o comportamento de servidores públicos sob a influência indesejada de ministros do gabinete. Com decretos regulamentares detalhados podem reduzir a autonomia decisória de servidores públicos na interpretação de leis vagas. Por fim, por meio da criação de órgãos públicos centralizados na Presidência, podem gerar condições mais favoráveis ao futuro controle da burocracia pública. O propósito da tese será desdobrado em três problemas de pesquisa, com desenhos orientados para variáveis. O primeiro, desenvolvido no primeiro capítulo, aborda como a heterogeneidade política da coalizão afeta o controle presidencial sobre a burocracia pública por meio de nomeações políticas. O segundo problema, discutido no capítulo seguinte, analisa como a rotatividade ministerial e a demanda pela implementação interministerial de uma mesma lei afetam o grau de detalhamento de decretos regulamentares. Por fim, o terceiro problema de pesquisa, abordado no último capítulo, avalia como a composição heterogênea dos gabinetes afeta a criação de burocracias centralizadas na Presidência da República. Por meio de métodos estatísticos, foram estimados modelos de regressão linear multivariada a fim de analisar os determinantes 1. das nomeações políticas e 2. do grau de detalhamento dos decretos regulamentares, bem como modelos de regressão logística binária para avaliar a probabilidade de centralização presidencial na criação de órgãos públicos. A politização da burocracia federal tende a aumentar quando o conflito entre parceiros da coalizão é maior, uma alternativa presidencial às orientações ministeriais indesejadas sobre a burocracia pública. Decretos regulamentares tendem a ser mais detalhados quando ministérios são mais voláteis e quando há implementação interministerial, uma alternativa presidencial à autonomia da burocracia pública. Por fim, a centralização tende a crescer quando o conflito de políticas entre presidente e ministros é maior, uma saída às orientações ministeriais nocivas às preferências do presidente.
Resumo:
Este trabalho tem por objetivo propor um modelo de pensamento projetual que oriente o designer de experiências interativas no formato de websites. Baseia-se em um corpo teórico e diretrizes adequadas para estimular a manutenção da atividade do usuário e o prolongamento da experiência interativa no tempo, aumentando a probabilidade da ocorrência de momentos memoráveis e emocionalmente positivos ao interator, sem prejuízo à usabilidade do sistema. Esta abordagem se afasta do paradigma de projeto voltado para o cumprimento de objetivos e tarefas, no qual procura-se reduzir o tempo de interação aumentando a produtividade do interator. Ao contrário, aqui se propõe um olhar voltado para o engajamento em uma atividade, sendo esta o fim em si.
Resumo:
A presente investigação se volta para a expressão de objeto direto anafórico (ODA) na produção de dados espontâneos de aquisição bilíngue simultânea (BFLA Bilingual First Language Acquisition) de Português Brasileiro (PB) e de inglês. A literatura em BFLA tem assumido que as duas línguas são adquiridas de maneira independente (DE HOUWER, 1990, 2005; PARADIS; GENESEE, 1996), porém indica que pode haver momentos de interação entre os dois sistemas linguísticos, resultando em transferência entre propriedades paramétricas das línguas (HULK; MÜLLER, 2000; MÜLLER; HULK, 2001; PÉREZ-LEROUX, et al 2009 ; STRIK; PÉREZ-LEROUX, 2011; SORACE, 2011). Essa investigação é conduzida com base na teoria de Princípios & Parâmetros (CHOMSKY, 1981) do Gerativismo, reformulada com o Programa Minimalista (CHOMSKY, 1995). PB e inglês se diferenciam em relação à marcação paramétrica para ODA: o PB admite objeto nulo anafórico (ON) e o inglês não. A hipótese de trabalho adotada é de que haverá transferência do PB para o inglês. Dois tipos de categorias nulas são observados: objetos nulos dêitico (Odeit) e anafórico (ON). Assume-se que a manifestação do primeiro tipo indica um estágio default universal, que constituiria uma estratégia facilitadora (RIZZI, 2005). A possibilidade de uso de ONs agramaticais no inglês é concebida como resultado da presença de dados ambíguos, que reforçariam essa possibilidade equivocadamente no inglês, em consonância com o defendido em Hulk & Müller (2000) e Müller & Hulk (2001). Assume-se, ademais, que as restrições semânticas que regem a distribuição das formas possíveis para ODA no PB (CYRINO, 2006; LOPES, 2009) só poderiam ser detectadas em uma faixa etária mais alta. São analisados dados espontâneos de três bilíngues simultâneos (N, L e A) em interação com seus pais. N foi acompanhado dos 2;1,18 aos 3;8,24 anos de idade, enquanto L foi acompanhada dos 2;5,30 aos 3;1,1 anos e A foi acompanhado dos 3;2,6 aos 3;8,26 anos. As manifestações de ODA foram identificadas e classificadas em DP, pronome, ON e ODeit. Comparando os bilíngues, constatou-se que cada criança parece estar em um momento de aquisição: N apresenta instâncias de ODeit em contextos imperativos e pronomes aparecem apenas no inglês aos 2;5,2 anos. L tem preferência por DPs nas duas línguas e usa pronomes apenas na língua inglesa. Aos 2;6,22 anos, surgem instâncias de ON com mais frequência no PB, mas também no inglês. A criança A apresenta todos os tipos de preenchimento de ODA e ONs aparecem nas duas línguas. Os dados indicam que ONs agramaticais estão presentes no inglês, sugerindo que há transferência do PB para o inglês
Resumo:
Esta tese desenvolve estudo do ensino de Redação com análise de textos discentes, cujo marco regulatório para a produção das aulas são as Competências e Habilidades inscritas nos PCN. Objetiva-se a correção de redações por meio digital que (1) identifica os problemas do texto produzido pelo redator, (2) fornece instruções para correção do problema apontado, (3) propõe retextualização para nova correção e (4) utiliza os desvios apontados como orientadores das aulas de Gramática. O trabalho final tem por objetivo principal ensinar a redigir no registro padrão por meio da correção comentada de textos produzidos por clientes, que podem ser alunos ou não, uma vez que o trabalho ocorre pela Internet (à distância), com ferramentas do MS Word. A instrução gramatical incidente sobre problemas detectados no texto é subsidiada por instruções semióticas de cunho didático-pedagógico. Testado em turmas regulares do Ensino Médio, em Cursos Preparatórios para processos seletivos, este projeto constatou sua eficácia, pois os redatores (1) compreenderam o quê e por que erraram, (2) assimilaram os mecanismos linguísticos de correção/adequação e (3) praticaram a substituição de estruturas, orientados por princípios da Teoria da Iconicidade Verbal (SIMÕES, [1994], 2009). Assim, os sujeitos foram-se apropriando das regras de estruturação da língua, por meio das quais se tornou possível a produção de textos eficientes, adequados à situação de comunicação. Paralelamente foram-se formando leitores críticos. A negociação de textos, a técnica de correção digital, mediada pela Internet e por isso realizada à distância (mesmo quando combinada com aulas presenciais)e a forma da instrução semiótico-gramatical é o que se pretende demonstrar nesta tese