historia calculo

historia calculo

(Parte 1 de 2)

História dos Limites

Limites nos apresentam um grande paradoxo. Todos os conceitos principais do cálculo - derivada, continuidade, integral, convergência/divergência - são definidos em termos de limites. Limite é o conceito mais fundamental do Cálculo; de fato, limite é o que distingue, no nível mais básico, o cálculo de álgebra, geometria e o resto da matemática. Portanto, em termos do desenvolvimento ordenado e lógico do cálculo, limites devem vir primeiro . Porém, o registro histórico é justamente o oposto. Por vários séculos, as noções de limite eram confusas, com idéias vagas e algumas vezes filosóficas sobre o infinito (números infinitamente grandes e infinitamente pequenos e outras entidades matemáticas) e com intuição geométrica subjetiva e indefinida. O termo limite em nosso sentido moderno é um produto do iluminismo na Europa no final do século 18 e início do século 19, e nossa definição moderna tem menos de 150 anos de idade. Até este período, existiram apenas raras ocasiões nas quais a idéia de limite foi usada rigorosamente e corretamente.

A primeira vez que limites foram necessários foi para a resolução dos quatro paradoxos de Zenão (cerca de 450 a.C.). No primeiro paradoxo, a Dicotomia, Zenão colocou um objeto se movendo uma distância finita entre dois pontos fixos em uma série infinita de intervalos de tempo (o tempo necessário para se mover metade da distância, em seguida o tempo necessário para se mover metade da distância restante, etc.) durante o qual o movimento deve ocorrer. A conclusão surpreendente de Zenão foi que o movimento era impossível! Aristóteles (384--322 a.C.) tentou refutar os paradoxos de Zenão com argumentos filosóficos. Em matemática, uma aplicação cuidadosa do conceito de limite resolverá as questões levantadas pelos paradoxos de Zenão.

Para suas demonstrações rigorosas das fórmulas para certas áreas e volumes, Arquimedes (287--212 a.C.) encontrou várias séries infinitas - somas que contêm um número infinito de termos. Não possuindo o conceito de limite propriamente dito, Arquimedes inventou argumentos muito engenhosos chamados de redução ao absurdo duplo, que, na verdade, incorporam alguns detalhes técnicos do que agora chamamos de limites.

Cálculo é também algumas vezes descrito como o estudo de curvas, superfícies e sólidos. O desenvolvimento da geometria destes objetos floresceu seguindo a invenção da geometria analítica por Pierre Fermat (1601--1665) e René Descartes (1596--1650). A geometria analítica é, essencialmente, o casamento da geometria com a álgebra, e cada uma melhora a outra.

Fermat desenvolveu um método algébrico para encontrar os pontos mais altos e mais baixos sobre certas curvas. Descrevendo a curva em questão por uma equação, Fermat chamou um número pequeno de E, e então fez alguns cálculos algébricos legítimos, e finalmente assumiu E = 0 de tal maneira que todos os termos restantes nos quais E estava presente desapareceriam! Essencialmente, Fermat colocou de lado o limite com o argumento que E é "infinitamente pequeno". Geometricamente, Fermat estava tentando mostrar que, exatamente nos pontos mais altos e mais baixos ao longo da curva, as retas tangentes à curva são horizontais, isto é, têm inclinação zero.

Encontrar retas tangentes a curvas é um dos dois problemas mais fundamentais do cálculo. Problemas envolvendo tangentes são uma parte do que chamamos agora de estudo das derivadas. Durante o século 17, vários geômetras desenvolveram esquemas algébricos complicados para encontrar retas tangentes a certas curvas. Descartes tinha um processo que usava raízes duplas de uma equação auxiliar, e essa técnica foi melhorada pelo matemático Johan Hudde (1628--1704), que era também o prefeito de Amsterdã. René de Sluse (1622--1685) inventou um método ainda mais complicado para obter tangentes a curves. Em cada um desses cálculos, o limite deveria ter sido usado em alguma etapa crítica, mas não foi. Nenhum destes geômetras percebeu a necessidade da idéia de limite, e assim cada um encontrou uma maneira inteligente para alcançar seus resultados, os quais estavam corretos, mas com meios que, agora reconhecemos, faltam fundamentos rigorosos.

Determinar valores exatos para áreas de regiões limitadas, pelo menos em parte, por curvas é o segundo problema fundamental do cálculo. Este são chamados freqüentemente de problemas de quadratura, e, intimamente relacionados a eles, estão os problemas de cubatura - encontrar volumes de sólidos limitados, pelo menos em parte, por superfícies curvas. Eles nos levam a integrais. Johannes Kepler (1571--1630), o famoso astrônomo, foi um dos primeiros estudiosos dos problemas de cubatura. Bonaventura Cavalieri (1598--1647) desenvolveu uma teoria elaborada de quadraturas. Outros, tais como Evangelista Torricelli (1608--1647), Fermat, John Wallis (1616--1703), Gilles Personne de Roberval (1602--1675), e Gregory St. Vincent (1584--1667) inventaram técnicas de quadratura e/ou cubatura que se aplicam a curvas e sólidos específicos ou famílias de curvas. Mas nenhum deles usou limites! Seus resultados eram quase todos corretos, mas cada um dependia de um malabarismo algébrico ou apelavam para intuição geométrica ou filosófica questionável em algum ponto crítico. A necessidade de limites não era reconhecida. Em quase todos os seus trabalhos que agora são considerados como cálculo, Isaac Newton (1642-- 1727), também não reconheceu o papel fundamental do limite. Para séries infinitas, Newton raciocinou meramente por analogia: se fosse possível executar operações algébricas em polinômios, então seria possível fazer o mesmo com o número infinito de termos de uma série infinita. Newton calculou o que ele chamou de flúxions a curvas, não exatamente derivadas, mas muito próximo. O processo que ele usou para esses cálculos era muito próximo do método de Fermat. Neste e na maioria dos outros trabalhos comparáveis, Newton negligenciou o limite.

Por outro lado, em seu Principia Mathematica (1687), talvez o maior trabalho em matemática e ciência,

Newton foi o primeiro a reconhecer que o limite deve ser o ponto de partida para problemas de tangência, quadratura e afins. No início do Livro I do Principia, Newton tentou dar uma formulação precisa do conceito de limite:

Quantidades, e as razões de quantidades, as quais em qualquer tempo finito convergem continuamente para igualdade, e antes do final daquele tempo se aproximam entre si por qualquer dada diferença, tornam-se iguais no final.

Existiram críticas sobre esta afirmação e sobre a discussão que a seguiu, notadamente por George

Berkeley (1685--1753). Mas a genialidade de Newton tinha descoberto o papel fundamental que o limite tinha que desempenhar no desenvolvimento lógico do cálculo. E, apesar de sua linguagem rebuscada, a semente da definição moderna de limite estava presente em suas afirmações.

Infelizmente, para a fundamentação rigorosa do cálculo, por muitas décadas, ninguém observou estas dicas que Newton tinha fornecido. As principais contribuições ao cálculo de Gottfried Wilhelm Leibniz

(1646--1716) foram as notações e as fórmulas básicas para as derivadas e integrais (as quais usamos desde então) e o Teorema Fundamental do Cálculo. Com estas ferramentas poderosas, o número de curvas e sólidos para os quais derivadas e integrais podiam ser facilmente calculadas se expandiram rapidamente. Problemas desafiadores de geometria foram resolvidos; mais e mais aplicações do cálculo à ciência, principalmente física e astronomia, foram descobertas; e novos campos da matemática, especialmente equações diferenciais e o cálculo de variações, foram criados. Dentre os líderes desse desenvolvimento do século 18 estavam vários membros da família Bernoulli, Johann I (1667--1748),

O cálculo se desenvolveu rapidamente pelos seus vários sucessos no século 18, e pouca atenção foi dada aos seus fundamentos, muito menos ao limite e seus detalhes. Colin Maclaurin (1698--1746) defendeu o tratamento dos fluxions de Newton do ataque de George Berkeley. Mas Maclaurin reverteu a argumentos do século 17 similares aos de Fermat e apenas ocasionalmente usou a redução ao absurdo dupla de Arquimedes. Apesar de suas boas intenções, Maclaurin passou por oportunidades de seguir a sugestão de Newton sobre limites. Jean Le Rond d'Alembert (1717--1783) foi o único cientista daquele tempo que reconheceu explicitamente a importância central do limite no cálculo. Na famosa

Encyclopédie (1751--1776), d'Alembert afirmou que a definição apropriada da derivada necessitava um entendimento do limite primeiro e então, deu a definição explícita:

Uma quantidade é o limite de uma outra quantidade quando a segunda puder se aproximar da primeira dentro de qualquer precisão dada, não importa quão pequena, apesar da segunda quantidade nunca exceder a quantidade que ela aproxima.

Em termos gerais, d'Alembert percebeu que, "a teoria de limites era a verdadeira metafísica do cálculo".

A preocupação sobre a falta de fundamento rigoroso para o cálculo cresceu durante os últimos anos do século 18. Em 1784, a Academia de Ciências de Berlim ofereceu um prêmio para um ensaio que explicasse com sucesso uma teoria do infinitamente pequeno e do infinitamente grande em matemática e que poderia, por sua vez, ser usada para colocar uma base sólida para o cálculo. Embora este prêmio tenha sido dado, o trabalho vencedor "longo e tedioso" de Simon L'Huilier (1750--1840) não foi considerado uma solução viável para os problemas colocados. Lazare N. M. Carnot (1753--1823) produziu uma tentativa popular de explicar o papel do limite no cálculo como "a compensação de erros" - mas ele não explicou como estes erros se cancelariam mutuamente perfeitamente.

No final do século 18, o grande matemático da época, Joseph-Louis Lagrange (1736--1813), conseguiu reformular toda a mecânica em termos de cálculo. Nos anos que seguiram a Revolução Francesa, Lagrange concentrou sua atenção nos problemas da fundamentação do cálculo. Sua solução, Funções Analíticas (1797), desligou o cálculo de "qualquer consideração do infinitamente pequeno ou quantidades imperceptíveis, de limites ou de flúxions." Renomado por suas outras contribuições ao cálculo, Lagrange fez um esforço heróico (como sabemos agora, com um falha fatal) para tornar o cálculo puramente algébrico eliminando limites inteiramente.

Ao longo do século 18, havia pouca preocupação com convergência ou divergência de seqüências e séries infinitas; hoje, entendemos que tais problemas requerem o uso de limites. Em 1812, Carl Friedrich Gauss (1777--1855) produziu o primeiro tratamento estritamente rigoroso da convergência de seqüências e séries, embora ele não tenha usado a terminologia de limites. Na sua famosa Teoria Analítica do Calor, Jean Baptiste Joseph Fourier (1768--1830) tentou definir a convergência de uma série infinita, novamente sem usar limites, mas então ele afirmou que qualquer função poderia ser escrita como uma de suas séries, e não mencionou a convergência ou divergência desta série.

No primeiro estudo cuidadoso e rigoroso das diferenças entre curvas contínuas e descontínuas e funções, Bernhard Bolzano (1781--1848) olhou além da noção intuitiva da ausência de buracos e quebras e encontrou os conceitos mais fundamentais os quais expressamos hoje em termos de limites. No começo do século 18, as idéias sobre limites eram com certeza confusas. Enquanto Augustin Louis Cauchy (1789-1857) estava procurando por uma exposição clara e rigorosamente correta do cálculo para apresentar aos seus estudantes de engenharia na École polytechnique em Paris, ele encontrou erros no programa estabelecido por Lagrange. Então, Cauchy começou o seu curso de cálculo do nada; ele começou com uma definição moderna de limite. Começando em 1821, ele escreveu as suas próprias notas de aula, essencialmente seus próprios livros, o primeiro chamado de Cours d’analyse (Curso de

Análise). Nas suas classes e nestes livros-texto clássicos, Cauchy usou o princípio de limite como a base para introduções precisas à continuidade e convergência, a derivada, a integral, e o resto do cálculo.

Contudo, Cauchy perdeu alguns dos detalhes técnicos, especialmente na aplicação da sua definição de limite a funções contínuas e à convergência de certas séries infinitas. Niels Henrik Abel (1802--1829) e Peter Gustav Lejeune Dirichlet (1805--1859) estavam entre aqueles que desencavaram estes problemas delicados e não intuitivos. Nas décadas de 1840 e 1850, enquanto era um professor do ensino médio, Karl Weierstrass (1815--1897) determinou que a primeira etapa necessária para corrigir estes erros era restabelecer a definição original de Cauchy do limite em termos estritamente aritméticos, usando apenas valores absolutos e desigualdades. A exposição de Weierstrass é exatamente aquela que encontramos no livro de Cálculo de Thomas. Weierstrass prosseguiu em uma carreira brilhante como professor de matemática na Universidade de Berlim. Lá ele desenvolveu um programa para trazer rigor aritmético para todo o cálculo e à análise matemática.

História da Derivada

A derivada tem dois aspectos básicos, o geométrico e o computacional. Além disso, as aplicações das derivadas são muitas: a derivada tem muitos papéis importantes na matemática propriamente dita, tem aplicações em física, química, engenharia, tecnologia, ciências, economia e muito mais, e novas aplicações aparecem todos os dias.

A origem da derivada está nos problemas geométricos clássicos de tangência, por exemplo, para determinar uma reta que intersecta uma dada curva em apenas um ponto dado. Euclides (cerca de 300 a.C.) provou o familiar teorema que diz que a reta tangente a um círculo em qualquer ponto P é perpendicular ao raio em P. Arquimedes (287--212 a.C.) tinha um procedimento para encontrar a tangente à sua espiral e Apolônio (cerca de 262--190 a.C.) descreveu métodos, todos um tanto diferentes, para determinar tangentes a parábolas, elipses e hipérboles. Mas estes eram apenas problemas geométricos que foram estudados apenas por seus interesses particulares limitados; os gregos não perceberam nenhuma linha em comum ou qualquer valor nestes teoremas.

Problemas de movimento e velocidade, também básicos para nosso entendimento de derivadas hoje em dia, também surgiram com os gregos antigos, embora estas questões tenham sido originalmente tratadas mais filosoficamente que matematicamente. Os quatro paradoxos de Zenon (cerca de 450 a.C.) se apoiam sobre dificuldades para entender velocidade instantânea sem ter uma noção de derivada. Na

Física de Aristóteles (384--322 B.C.), os problemas de movimento estão associados intimamente com noções de continuidade e do infinito (isto é, quantidades infinitamente pequenas e infinitamente grandes). Na época medieval, Thomas Bradwardine (1295--1349) e seus colegas em Merton College, Oxford, fizeram os primeiros esforços para transformar algumas das idéias de Aristóteles sobre movimento em afirmações quantitativas. Em particular, a noção de velocidade instantânea tornou-se mensurável, pelo menos em teoria; hoje, é a derivada (ou a taxa de variação) da distância em relação ao tempo.

Foi Galileu Galilei (1564--1642) quem estabeleceu o princípio que matemática era a ferramenta

entendê-lo se não aprendermos primeiro a linguagemO livro está escrito em linguagem matemática

indispensável para estudar o movimento e, em geral, ciência: “Filosofia [ciência e natureza] está escrita naquele grande livro o qual está diante de nossos olhos – quero dizer o universo – mas não podemos ...” Galileu estudou o movimento geometricamente; usou as proporções clássicas de Euclides e propriedades das cônicas de Apolônio para estabelecer relações entre distância, velocidade e aceleração. Hoje, estas quantidades variáveis são aplicações básicas das derivadas.

O interesse em tangentes a curvas reapareceu no século 17 como uma parte do desenvolvimento da geometria analítica. Uma vez que equações eram então usadas para descrever curvas, o número e variedade de curvas aumentou tremendamente naqueles estudos em épocas clássicas. Por exemplo, Pierre Fermat (1601--1665) foi o primeiro a considerar a idéia de uma família inteira de curvas de uma só vez. Ele as chamou de parábolas superiores, curvas da forma y = kxn , onde k é constante e n = 2, 3,

4, … A introdução de símbolos algébricos para estudar a geometria de curvas contribuiu significativamente para o desenvolvimento da derivada, da integral e do cálculo. Por outro lado, como conclusões e resultados geométricos poderiam ser obtidos mais facilmente usando raciocínio algébrico que geométrico, os padrões de rigor lógico que tinham sido iniciados pelos gregos antigos foram relaxados em muitos problemas de cálculo, e isto (entre outros fatores) levou a controvérsias espirituosas e até amarguradas. Fermat desenvolveu um procedimento algébrico para determinar os pontos mais altos (máximos) e mais baixos (mínimos) sobre uma curva; geometricamente, ele estava encontrando os pontos onde a tangente à curva tem inclinação zero.

René Descartes (1596--1650) teve o discernimento de prever a importância da tangente quando, em sua Geometria, escreveu “E eu ouso dizer isto [encontrar a normal, ou perpendicular a uma curva, a partir da qual podemos facilmente identificar a tangente] não é apenas o problema mais útil e geral da geometria que conheço, mas até aquele que sempre desejei conhecer.” Descartes inventou um procedimento de dupla raiz para encontrar a normal e então a tangente a uma curva. Como resultado da tradução da Geometria de Descartes para o latim por Frans van Schooten (1615--1661) e as explicações abrangentes por Schooten, Florimonde de Beaune (1601--1652) e Johan Hudde (1628-

1704), os princípios e benefícios da geometria analítica tornaram-se mais amplamente conhecidos. Em particular, Hudde simplificou a técnica da dupla raiz de Descartes para determinar pontos máximos e mínimos sobre uma curva; o procedimento da dupla raiz foi redescoberto por Christiaan Huygens (1629- 1695). Então, modificando o processo da tangente de Fermat, Huygens inventou uma seqüência de etapas algébricas que produziu os pontos de inflexão de uma curva; veremos que isto requer a derivada segunda. René François de Sluse (1622--1685) desenvolveu uma técnica algébrica que levou à inclinação da tangente a uma curva. No final da década de 1650, havia grande correspondência entre Huygens, Hudde, van Schooten, Sluse e outros sobre tangentes de várias curvas algébricas; Hudde e Sluse especialmente procuraram métodos algébricos mais simples e padronizados que poderiam ser aplicados a uma variedade maior de curvas. Para Gilles Personne de Roberval (1602--1675), uma curva era o caminho de um ponto se movendo, e ele desenvolveu um método mecânico para encontrar a tangente para muitas curvas, incluindo a ciclóide. Mas o método de Roberval não podia ser generalizado para incluir mais curvas.

Isaac Newton (1642--1727) começou a desenvolver o seu “cálculo de flúxions” entre os seus primeiro esforços científicos em 1663. Para Newton, movimento era a “base fundamental” para curvas, tangentes e fenômenos relacionados de cálculo e ele desenvolveu seus flúxions a partir da versão de Hudde do procedimento da dupla raiz. Newton estendeu esta técnica como um método para encontrar a curvatura de uma curva, uma característica que agora sabemos ser uma aplicação da derivada segunda. Em 1666, 1669 e 1671, Newton resumiu e revisou seu trabalho de cálculo e estes manuscritos circularam entre um grande número de seus colegas e amigos. Ainda assim, embora tenha continuado a retornar a problemas de cálculo em épocas diferentes de sua vida científica, os trabalhos de Newton sobre cálculo não foram publicados até 1736 e 1745.

Com algum tutoramento e conselho de Huygens e outros, Gottfried Wilhelm Leibniz (1646--1716) desenvolveu seu cálculo diferencial e integral durante o período entre 1673 e 1676 enquanto vivia como um diplomata em Paris. Em uma pequena viagem a Londres, onde participou de um encontro da Sociedade Real em 1673, Leibniz aprendeu o método de Sluse para encontrar tangentes a curvas algébricas. Leibniz tinha pouca inclinação para desenvolver estas técnicas e interesse ainda menor em fundamentações matemáticas (isto é, limites) necessárias, mas ele aperfeiçoou as fórmulas modernas e a notação para derivada no seu famoso artigo "New methods for maximums and minimums, as well as tangents, which is neither impeded by fractional nor irrational quantities, and a remarkable calculus for them" (Novos métodos para máximos e mínimos, assim como tangentes, os quais não são impedidos por quantidades fracionárias e irracionais, e um cálculo notável para eles) de 1684. Aqui está o primeiro trabalho publicado em cálculo e de fato a primeira vez que a palavra “cálculo” foi usada em termos modernos. Agora, qualquer um poderia resolver problemas de tangentes sem ser especialista em geometria, alguém poderia simplesmente usar as fórmulas de “cálculo” de Leibniz. Algumas vezes se diz que Newton e Leibniz “inventaram” o cálculo. Como podemos ver, isto é simplificação exagerada. Em vez disso, como Richard Courant (1888--1972) observou, cálculo tem sido

“uma luta intelectual dramática que durou 2500 anos”. Depois de 1700, circunstâncias levaram a um dos episódios mais tristes e deselegantes em toda a história da ciência: a disputa entre Leibniz e Newton, e mais ainda entre seus seguidores, sobre quem deveria receber os créditos do cálculo. Cada um fez contribuições importantes para derivada, integral, séries infinitas e, acima de tudo, para o Teorema

Fundamental do Cálculo. As acusações de plágio e outros ataques eram irrelevantes frente à matemática feita por eles, mas as acusações e contra-ataques escalaram para cisões entre matemáticos e cientistas na Inglaterra (leais a Newton) e no continente europeu (seguidores de Leibniz) os quais levaram à xenofobia nacionalista por mais de um século.

O primeiro livro sobre cálculo diferencial foi Analysis of Infinitely Small Quantities for the Understanding of Curved Lines (Análise de quantidades infinitamente pequenas para o entendimento de curvas,1696) pelo Marquês de l’Hospital (1661--1704). Muito de seu trabalho foi realmente devido à Johann Bernoulli (1667--1748) e seguiu o tratamento de Leibniz para derivadas, máximos, mínimos e outras análises de curvas. Mas o método de L’Hospital para determinar o raio de curvatura era muito parecido com aquele de Newton. Jakob Bernoulli (1654-1705) e seu irmão mais novo Johann lideraram o caminho para espalhar o conhecimento do poder das fórmulas de cálculo de Leibniz propondo e resolvendo problemas desafiadores (o problema da catenária e da braquistócrona são dois exemplos) para os quais o cálculo era necessário. Leibniz, Newton e Huygens também resolveram estes problemas. Este problemas e outros levaram ao desenvolvimento das equações diferenciais e do cálculo das variações, novos campos da matemática dependentes de cálculo.

Na Inglaterra, o novo Treatise of Fluxions (Tratado de Flúxions,1737) de Thomas Simpson (1710--1761) forneceu a primeira derivada da função seno. Em 1734, o Bispo George Berkeley (1685--1753) publicou The Analyst (O Analista), um ataque à falta de fundamentos rigorosos para seus flúxions. Berkeley reconheceu a precisão das fórmulas de Newton e a exatidão das suas aplicações abrangentes em física e astronomia, mas criticou as "quantidades infinitamente pequenas" e os "incrementos imperceptíveis" dos fundamentos das derivadas. Colin Maclaurin (1698--1746) tentou defender Newton no seu Treatise of Fluxions (Tratado de Flúxions) (1742) e desenvolveu derivadas para funções logarítmicas e exponenciais e expandiu as fórmulas de Simpson para incluir as derivadas das funções tangente e secante.

No continente, Maria Agnesi (1718--1799) seguiu Leibniz e L'Hospital no seu livro de cálculo Analytical Institutions (Instituições Analíticas,1748). Leonhard Euler (1707--1783) deu um passo importante na direção de estabelecer uma fundamentação sólida para o cálculo no seu Introduction to the Analysis of the Infinite (Introdução à Análise do Infinito, 1748) quando introduziu funções (no lugar de curvas) como os objetos para os quais as derivadas e outras técnicas de cálculo seriam aplicadas. Por função, Euler queria dizer algum tipo de "expressão analítica"; sua concepção não era tão abrangente como a nossa definição moderna. Na sua publicação, também introduziu o termo análise como um nome moderno para cálculo e a matemática avançada relacionada. No seu Methods of Differential Calculus

(Métodos de Cálculo Diferencial,1755), Euler definiu a derivada como "o método para determinar as razões entre os incrementos imperceptíveis, as quais as funções recebem, e os incrementos imperceptíveis das quantidades variáveis, das quais elas são funções", que soa não muito científico hoje em dia. Mesmo assim, Euler trabalhou com vários casos especiais da regra da cadeia, introduziu equações diferenciais e tratou máximos e mínimos sem usar quaisquer diagramas ou gráficos. Em 1754, na famosa Encyclopédie francesa, Jean le Rond d’Alembert (1717--1783) afirmou que a "definição mais precisa e elegante possível do cálculo diferencial" é que a derivada é o limite de certas razões quando os numeradores e denominadores se aproximam mais e mais de zero, e que este limite produz certas expressões algébricas que chamamos de derivada.

No final do século 18, Joseph Louis Lagrange (1736--1813) tentou reformar o cálculo e torná-lo mais rigoroso no seu Theory of Analytic Functions (Teoria das Funções Analíticas,1797). Lagrange pretendia dar uma forma puramente algébrica para a derivada, sem recorrer à intuição geométrica, a gráficos ou a diagramas e sem qualquer ajuda dos limites de d'Alembert. Lagrange desenvolveu a principal notação que usamos agora para derivadas e o desenvolvimento lógico de seu cálculo era admirável em outros aspectos, mas seu esforço em prover uma base sólida para o cálculo falhou porque sua concepção da derivada era baseada em certas propriedades de séries infinitas as quais, sabemos agora, não são verdadeiras.

Finalmente, no início do século 19, a definição moderna de derivada foi dada por Augustin Louis Cauchy (1789--1857) em suas aulas para seus alunos de engenharia. Em seu Résumé of Lessons given at l'Ecole Polytechnique in the Infinitesimal Calculus (Resumo das Lições Dadas na Escola Politécnica Sobre o Cálculo Infinitesimal,1823), Cauchy afirmou que a derivada é:

O limite de [f(x + i) - f(x)] / i quando i se aproxima de 0. A forma da função que serve como o limite da razão [f(x + i) - f(x)] / i dependerá da forma da função proposta y = f(x). Para indicar sua dependência, dá-se à nova função o nome de função derivada.

Cauchy prosseguiu para encontrar derivadas de todas as funções elementares e dar a regra da cadeia. De igual importância, Cauchy mostrou que o Teorema do Valor Médio para derivadas, que tinha aparecido no trabalho de Lagrange, era realmente a pedra fundamental para provar vários teoremas básicos do cálculo que foram assumidos como verdadeiros, isto é, descrições de funções crescentes e decrescentes. Derivadas e o cálculo diferencial estão agora estabelecidos como uma parte rigorosa e moderna do cálculo.

História da Integral

O cálculo integral se originou com problemas de quadratura e cubatura. Resolver um problema de quadratura significa encontrar o valor exato da área de uma região bidimensional cuja fronteira consiste de uma ou mais curvas, ou de uma superfície tridimensional, cuja fronteira também consiste de pelo menos uma curva. Para um problema de cubatura, queremos determinar o volume exato de um sólido tridimensional limitado, pelo menos em parte, por superfícies curvas. Hoje, o uso do termo quadratura não mudou muito: matemáticos, cientistas e engenheiros comumente dizem que "reduziram um problema a uma quadratura", o que significa que tinham um problema complicado, o simplificaram de várias maneiras e agora o problema pode ser resolvido avaliando uma integral.

(Parte 1 de 2)

Comentários