[Mauro Allegranza odpowiedział na pytanie, kto wprowadził notację $ i $ (Euler, a następnie Gauss), więc zmieniłem tytuł. Zredagowałem również pytanie w inny sposób, aby było jaśniejsze, o co pytam.]
Typowy fragment matematycznego folkloru stwierdza, że $ i $ span > został wprowadzony w celu ochrony przed błędem $ 1 = \ sqrt {(- 1) (- 1)} = \ sqrt {-1} \ sqrt {-1} = - 1 $ . (Zobacz na przykład to pytanie i ten fragment z Wikipedii. Zwróć uwagę na [ potrzebne cytowanie ] we wpisie Wikipedii.)
Wydaje się to wiarygodne dla współczesnych matematyków ze względu na pracę matematyków XIX wieku, zwłaszcza Riemanna. Nie możemy zdefiniować (jednowartościowej) funkcji pierwiastka kwadratowego w całej złożonej płaszczyźnie spełniającej tożsamość $ \ sqrt {xy} = \ sqrt {x} \ sqrt {y} $ . (Rzeczywiście, powyższy błąd, przekształcenie, dowodzi tego.) Więc naturalnie jesteśmy podejrzliwi wobec wyrażenia $ \ sqrt {-1} $ używanego do definiowania wartości. O który pierwiastek kwadratowy chodzi, $ \ pm i $ ?
Jednak współczesna wrażliwość nie jest wiarygodnym przewodnikiem po myślach matematyków XVIII wieku. Spróbuję rzucić nieco wątpliwości na poniższe wyjaśnienie „chroniące przed błędami”, ale najpierw pozwól mi wyjaśnić moje pytanie. Alternatywną hipotezą jest to, że Euler po prostu wprowadził symbol $ i $ dla zwięzłości. Być może czuł, że ta fundamentalna stała zasługuje na standardową nazwę, tak jak wprowadził $ e $ jako podstawę logarytmów naturalnych. Czy istnieją dowody z dokumentów , które pozwolą zdecydować między tymi hipotezami? (Na przykład, jeśli Euler umieścił dyskusję na temat powyższego błędu w bliskim sąsiedztwie wprowadzenia $ i $ , byłby to dowód na hipotezę "ochrony przed błędami". )
Szperałem w Internecie, szukając ostatecznej odpowiedzi. Przeszukiwanie math.stackexchange ze znacznikami [historia-matematyki] [liczby zespolone] nie dało nic użytecznego. Funkcja „Pełny tekst Google” zastosowana do książki Paula J. Nahina An Imaginary Tale: The Story of $ i $ (z kluczem „ notation ”) również nie odpowiedział na pytanie.
Moje powody kwestionowania folkloru: Po pierwsze, zauważ, że wprowadzenie $ i $ nie wyklucza jednoznacznie błąd, który można przepisać $ 1 = \ sqrt {(- 1) (- 1)} = i \ cdot i = -1 $ . Ściśle powiązanym argumentem jest to, że notacja $ \ sqrt {-1} $ jest z natury niejednoznaczna. Jednak definicja notacji „Użyjemy $ \ sqrt {-1} $ do oznaczenia jednego z dwóch pierwiastków kwadratowych z -1 $ ”nie jest bardziej niejednoznaczne niż„ Użyjemy $ i $ do oznaczenia jednego z dwóch pierwiastków kwadratowych z $ - 1 $ ". Błąd polega na nieograniczonym używaniu $ \ sqrt {xy} = \ sqrt {x} \ sqrt {y} $ , a nie w używaniu $ \ sqrt {-1} $ to (dowolnie wybrany) pierwiastek kwadratowy z $ - 1 $ .
Istnieje również historyczny powód, aby kwestionować hipotezę „ochrony przed błędami”. W XVIII wieku nacisk na funkcje jednowartościowe był znacznie mniejszy. Z artykułu w Wikipedii Historia koncepcji funkcji:
Definicja Eulera brzmi:
Funkcja wielkości zmiennej jest wyrażenie analityczne złożone w jakikolwiek sposób ze zmiennej ilości i liczb lub wielkości stałych.
Euler dopuszczał również funkcje wielowartościowe, których wartości są określone przez niejawne równanie.
cytat blokowy>Później Euler podał inną definicję, chociaż najwyraźniej miała to być uogólnieniem jego poprzedniej definicji. Rozwiązanie problemów z funkcjami jednowartościowymi i wielowartościowymi było w dużej mierze zadaniem XIX wieku, a Dirichlet i Riemann odgrywali wiodące role.
Teraz $ \ sqrt {xy} = \ sqrt {x} \ sqrt {z} $ jest w porządku jako równanie między funkcjami wielowartościowymi: po prostu mówi, że zbiór wartości po lewej jest równy zestawowi wartości po prawej stronie (biorąc pod uwagę oczywistą definicję iloczynu dwóch zbiorów wartości). Nieokiełznane stosowanie równań wielowartościowych ma swoje pułapki, ale wydaje się, że problem ten dotyczy raczej XIX wieku.
Znaczna część prac Eulera była bardziej „skoncentrowana na formułach” niż jesteśmy do tego przyzwyczajeni. Dobrze znane są jego swobodne obliczenia z nieskończonymi seriami. Chociaż były one (w większości) ostatecznie uzasadnione, standardy rygoru Eulera nie były nasze.
Z tych powodów uważam, że argument o „ochronie błędów” jest równie wiarygodny jak argument „zwięzłości”. Czy istnieją współczesne dowody historyczne, które pomogłyby w rozstrzygnięciu tego pytania?