Три кризиса в развитии математики - (диплом)
p>В начале XVIII века между Лейбницем и И. Бернулли возник спор о “природе” логарифмов отрицательных чисел. И. Бернулли полагал, что прих>0, ln(–x)=ln x, так как . Лейбниц не согласился с И. Бернулли; он утверждал, что отрицательное число имеет бесчисленное множество логарифмов, причем все они—числа комплексные. Среди других своих аргументов Лейбниц указал, что правило дифференцированияln x, установленное для х>0, не обязательно должно быть справедливым и для ln(–x). При помощи особой аргументации Л. Эйлер решил спор в пользу Лейбница. Однако указанный аргумент Лейбница Эйлер решительно отклонил. “Это возражение, — указывал Эйлер, —если бы оно было верно, поколебало бы основное положение всего анализа, заключающееся, в основных чертах, в общности правил и операций, признаваемых справедливыми, какова бы ни была природа количеств, к которым они прилагаются”.Как мы видим, подход математиков в XVIII веке к выяснению границ приложимости методов математики и трактовка её принципов были явно метафизическими. В XVIII веке доказательство теорем математического анализа нередко проводили, опираясь на господствовавшие тогда механические и геометрические представления. Начало широкому использованию механических представлений как базы математического анализа положил Ньютон в своем учении о флюентах и флюксиях. Что же касается указанного использования геометрических представлений, то проще всего выяснить суть дела на следующем примере.
В наше время теорема о прохождении непрерывной функции через нулевое значение доказывается в классическом математическом анализе чисто аналитически с использованием понятия бесконечного множества. В XVIII веке если эта теорема и доказывалась, то чаще всего указанием на то, что непрерывная криваяf(x), соединяющая точки А и В, расположенные в плоскости по разные стороны оси ОХ, существует по меньшей мере одна точка с абсциссой х=с, a
Рис. 3
Подобного рода геометризация нередко встречалась в руководствах по алгебре и арифметике.
Например, доказательство закона переместительности ab=ba, якобы верного для любых чисел и величин, обычно сводили на два равных, но различно расположенных прямоугольника (рис. 4).
Рис. 4
Эйлер и другие математики XVIII века задавали функцию одним аналитическим выражением и от этого аналитического выражения её не отделяли. При этом, под аналитическим выражением, вообще говоря, понималось выражение, которое можно получить, связывая элементарные функции (алгебраические и некоторые трансцендентальные, одного или нескольких аргументов) посредством сложения, вычитания, умножения и деления, возведения в степень и извлечения корня, решения алгебраических уравнений и интегрирования. Считали, что задание функции на любом промежутке определяет её поведение на всей осиОХ. Соответственно функция представлялась кривой, части которой зависят друг от друга и которую можно задать одним аналитическим выражением указанного вида. Такие функции считали непрерывными (в смысле Эйлера), назывались правильными. Представленная на чертеже (рис. 5) непрерывная в современном смысле функцияу=|х|в смысле Эйлера не была непрерывной. Действительно, если использовать запас функций, с каким работали в XVIII веке, то эта функция должна быть задана двумя формулами:
f(x)=x, 0Јx;
f(x)=–x, xЈ0.
Рис. 5
Вместе с другими математиками XVIII века Эйлер считал, что такое толкование функции и её непрерывности достаточны для интегрального и дифференциального исчисления и теории обыкновенных дифференциальных уравнений. Но вопреки им он полагал возможным рассматривать в теории уравнений с частными производными и функции, задание которых на отрезке не определяет их поведения в целом, т. е. в его терминахпроизвольныефункции. Эйлер трактовал непрерывность таких функций в современном смысле и называл их связными. К такому расширению понятия функции Эйлер пришел в связи с анализом результатов исследований (своих и других математиков) о колеблющихся струнах.
Рассматривая только непрерывное и монотонное изменение переменных — в то время так поступали в механике и геометрии, —Ньютон, Даламбер и некоторые математики XVIII века толковали предел только как то, что порождается переменной, фактически как последнеезначение переменной или как последнее отношение переменных. Вопрос, достигает ли переменная этого своего последнего значения, или может подойти к нему как угодно близко, никакой роли не играет. В практике математического анализа предел действительно извлекался из переменной как её последнее значение, которое она принимает или может принять. В конце XVIII века Лазар Карно называет пределом последнее значение переменной, которая к нему приближается. Даже в 40-х годах прошлого столетия В. В. Буниковский считал задачей дифференциального исчисления “уловить отношения изменяющихся по известному закону величин в то самое мгновение, когда эти величины исчезают”, т. е. уловить последнее значение отношения переменных. Как мы увидим эта узкая (но выдаваемая за всеобщую) трактовка понятия предела сыграла особо важную роль в развертывании трудностей обоснования математического анализа в XVIII и начале XIX века.
Математики XVII–XVIII веков полагали также, что любая непрерывная функция f(x)в каждой точке, за исключением, быть может, их конечного числа имеет производнуюf`(x). Для доказательства этого заключения часто полагали возможным представить непрерывную функцию кривой, которая, вообще говоря, в каждой точке имеет касательную.
В первой половине XVIII века понятие числа определялось чаще всего по Евклиду: число есть совокупность единиц. Во второй половине XVIII века число истолковывается преимущественно как результат измерения одной величины другой величиной того же рода, принятой за единицу. Но даже последнее, значительно более широкое, истолкование понятия числа не охватывало все в то время известные виды чисел. Достаточно вспомнить, что в XVII–XVIII веках математики знали и с успехом использовали понятие комплексного числа. Поэтому, наряду с понятием числа, прибегали к прибегали к понятиям о положительных и отрицательных величинах, о мнимых величинах, о величинах реальных и ложных и т. п.
Алгебра трактовалась как наука, изучающая только общие свойства обычных арифметических и геометрических величин.
Полагали, что каждая геометрическая теория — тригонометрия, аналитическая геометрия и т. п. —является только надстройкой над геометрией Евклида и поэтому должна строиться на фундаменте последней.
Когда описанные выше истолкования основных понятий, принципов и методов математики получили достаточно широкое распространение, в математических теориях начали обнаруживаться парадоксы; в некоторых случаях даже приходили к ложным заключениям, которые, однако, считали истинными.
Парадоксы (и ложные заключения) обнаружились впервые в XVI–XVII веках в учении о числе. Они сохранили свою силу и в XVIII веке. Основой их было то, что почти до конца XVIII века большинство математиков пытались построить учение о числе (вплоть до арифметики комплексных чисел! ) на фундаменте, в свое время разработанном для арифметики количественных натуральных чисел. Обычные, верные для количественных натуральных чисел, определения арифметических действий и все пять законов счета заранее при этом считались справедливыми в каждой области чисел. В связи с этим находятся характерные для второй половины XVII и XVIII века “доказательства” правила знаков(–a)(–b)=+ab; сомнения в истинности пропорции +1: –1= –1: +1 (“как большее, деленное на меньшее, может быть равно меньшему, деленному на большее? ”); отрицание объективности понятия комплексного числа и т. п. Однако, до начала XIX века трудности обоснования учения о числе не мешали успешному использованию понятия числа в математике, точных науках и технике. Это имело основанием то, что в любой области чисел, от натуральных до комплексных, все пять законов счета выполняются. Кроме того, в этот период в математике ведущее положение принадлежало математическому анализу. Поэтому вопросы обоснования учения о числе хотя и обсуждались активно, но в деле разработки основ математики играли второстепенную роль.
Ученые и философы обратили серьезное внимание на трудности обоснования математики лишь тогда, когда Лейбниц и Ньютон развили дифференциальное и интегральное исчисление.
Лейбниц и его последователи — братья Бернулли, Лопинталь и другие — трактовали дифференциалы как бесконечно малые разности обычных конечных величин, как тогда говорили —“реальных” величин. Поэтому они обращались с теми и другими одинаково и в исчислении применяли к первым те же приемы, которые справедливы при действиях со вторыми. Вместе с тем выяснилось, что таким образом трактуемымбесконечно малым присуще свойство, противоречащее одному основному свойству основных конечных величин: если А — конечная величина, а a — бесконечно малая, то, чтобы результат исчисления получался совершенно точным, оказалось необходимым проводить вычисления в предположении, чтоА+a=А.
Дифференциальное исчисление, значение которого для развития науки и техники было вне сомнений, оказалось в парадоксальном положении: чтобы его методами получить точный результат, надо было исходить из ошибочного утверждения. Ньютон пытался обосновать дифференциальное исчисление на законах механики и понятии предела. Но ему не удалось освободить свое исчисление флюксий от недостатков, присущих дифференциальному исчислению Лейбница. В практике вычисления Ньютон, как и Лейбниц, применял принцип отбрасывания бесконечно малых.
К. Маркс называл дифференциальное исчисление Лейбница–Ньютона мистическим. Этим он хотел в первую очередь подчеркнуть, что Лейбниц и Ньютон вводили в дифференциальное исчисление бесконечно малые метафизически, сразу полагая их существующими, без выяснения их возникновения и развития и без анализа природы их специфических свойств.
Парадоксы возникли и в теории рядов. Например, в XVIII веке полагали, что “сумма ряда”
равна 0, так как
а
.
Много споров вызвал вопрос о “сумме” ряда
1–1+1–1…
поскольку, как говорили, “с одной стороны,
(1–1)+(1–1)…=0,
а с другой —
1–(1–1)-(1–1)…=1”.