נעים להכיר - אקספוננט
בפוסט הזה אני רוצה לדבר על אחת הפונקציות החשובות והמרכזיות במתמטיקה - פונקצית האקספוננט, או כפי שבדרך כלל מכירים אותה בימינו, \( e^{x} \). בראש ובראשונה זו תהיה גם היכרות עם הקבוע \( e \) שב”בסיס” הפונקציה, וגם הסבר מדוע היא מצורה זו בכלל. כמו שקורה רבות במתמטיקה, הפונקציה צצה בהקשרים רבים ושונים, ובהתאם לכך יש לה הגדרות שקולות רבות ושונות; אני רוצה לדבר על זו שלטעמי היא היפה וה”נקיה” ביותר - ההקשר של משוואות דיפרנציאליות, שכבר הוזכר בפוסט הקודם, וממנה להתפתח הלאה ולראות איך ההגדרות השקולות צצות מאליהן.
במשוואה דיפרנציאלית ה”נעלם” הוא פונקציה \( f\left(x\right) \) כלשהי, והמשוואה מתארת קשר בין \( f\left(x\right) \) ובין הנגזרות שלה. אם יש הרבה נגזרות, או אם נותנים ל-\( x \) להתפרע חופשי במשוואה, מקבלים משהו מורכב למדי - למשל, \( f^{\prime}\left(x\right)=\left(f^{\prime\prime}\left(x\right)\right)^{2}-13x\cdot f\left(x\right)+11x^{2} \) היא משוואה די מסובכת וקשה (או אף בלתי אפשרי?) לתת לה פתרון מפורש. לכן אך טבעי הדבר להתחיל ממשוואות פשוטות ככל הניתן (שעם זאת, עדיין צצות באופן טבעי ומעניין בטבע - את זה הדגים הפוסט הקודם). קשה לי לחשוב על משוואה דיפרנציאלית שמערבת גם את \( f \) וגם את \( f^{\prime} \) והיא פשוטה יותר מאשר \( f=f^{\prime} \); על כן, עיסוק במשוואות דיפרנציאליות צריך להתחיל מגילוי הפתרון של המשוואה הזו; זה נותן לנו קרש קפיצה לפתרון של משוואות נוספות רבות.
השאלה הראשונה שעולה כשמתבוננים במשוואה היא - מי מבטיח לנו שיש פתרון בכלל? ואם יש פתרון, כמה פתרונות יש? כאן נכנס לתמונה משפט תיאורטי מרכזי בענף המשוואות הדיפרנציאליות - משפט הקיום והיחידות. ניסוח מדוייק של המשפט הוא מיותר כאן - הוא דורש מספר לא מבוטל של הנחות ותנאים על המשוואה עצמה, ולכן אגיד רק מה מסקנותיו עבור המשוואה \( f=f^{\prime} \) שלנו: המשפט מבטיח שיש פתרון למשוואה, אך הוא אינו יחיד, וכדי שיהיה יחיד צריך גם לקבוע “תנאי התחלה”. למשל, לומר מה יהיה ערכה של \( f \) בנקודה \( x=0 \). משנקבע תנאי ההתחלה הזה, קיים למשוואה פתרון יחיד שהוא פונקציה רציפה וגזירה ברציפות (אם המושגים הללו לא אומרים לכם הרבה, לא נורא). זה שקיים פתרון לא אומר לנו עדיין שום דבר על איך הוא נראה; אך זה כן אומר שאפשר מרגע זה ואילך לסמן אותו בסימון כלשהו ולהתחיל לדבר עליו כאילו הוא מציאותי וכל מה שנותר לעשות הוא לחקור את תכונותיו.
ובכן, איזה תנאי התחלה נבחר? התנאי הטבעי ביותר הוא \( f\left(0\right)=0 \), אבל אז נקבל פתרון “משעמם” במיוחד: הפונקציה \( f\left(x\right)=0 \). קל לראות שנגזרתה שווה לעצמה ושהיא מקיימת את תנאי ההתחלה, אבל זו לא פונקציה שאפשר לעשות איתה משהו מיוחד. תנאי ההתחלה ה”טבעי”הבא הוא \( f\left(0\right)=1 \), בזכות המעמד המיוחד שיש לקבוע 1, בהיותו האיבר האדיש לכפל. כאן כבר בבירור לא נקבל את הפונקציה \( f\left(x\right)=0 \), כי הפונקציה הזו שווה ל-0 בנקודה 0, לא ל-1. לכן נתכבד ונעניק לפתרון החדש סימון מיוחד: \( \exp\left(x\right) \). כעת נותר לנו להבין איך \( \exp\left(x\right) \) “נראית”.
כרגע כל המידע שיש לנו על \( \exp\left(x\right) \) מסתכם בכך ש-\( \left(\exp\left(x\right)\right)^{\prime}=\exp\left(x\right) \) ובכך ש-\( \exp\left(0\right)=1 \), אך קל להסיק מזה מידע נוסף: \( \exp^{\left(k\right)}\left(0\right)=1 \) לכל \( k \) טבעי, כאשר \( \exp^{\left(k\right)} \) מציין את הנגזרת ה-\( k \)-ית של \( \exp \). הסיבה פשוטה: הנגזרת של \( \exp \) שווה ל-\( \exp \) עצמה, ולכן גם הנגזרת מקבלת את הערך 1 בנקודה 0; ואם גוזרים את הנגזרת, מקבלים שוב את אותו הדבר, וכן הלאה וכן הלאה. אם כן, אנחנו יודעים את הנגזרות של \( \exp \) מכל סדר שהוא בנקודה 0, וזה מזמין שיטת קירוב כללית - פולינומי טיילור.
פולינומים הם פונקציות מהצורה \( p\left(x\right)=a_{0}+a_{1}x+a_{2}x^{2}+\dots+a_{n}x^{n} \), כש-\( x \) הוא המשתנה, \( a_{0},\dots,a_{n} \) הם מספרים ממשיים כלשהם המכונים “מקדמי הפולינום”, \( a_{n}\ne0 \), ו-\( n \) נקראת דרגת הפולינום. במובן מסויים אלו הן הפונקציות הפשוטות ביותר והקלות ביותר לחישוב, ולכן גם הפונקציות שנהוג להשתמש בהן כדי לקרב פונקציות מורכבות יותר. קל לגזור פולינום: \( \left(x^{n}\right)^{\prime}=nx^{n-1} \), ובאופן כללי לכל פונקציות גזירות \( f,g \) וקבוע ממשי \( c \) מתקיים \( \left(cf\right)^{\prime}=cf^{\prime} \)ו-\( \left(f+g\right)^{\prime}=f^{\prime}+g^{\prime} \) (תכונות אלו מכונות “הלינאריות של הנגזרת”), ומכאן קל להסיק את הנוסחה הכללית לנגזרת של פולינום: \( p'\left(x\right)=a_{1}+2a_{2}x+3a_{3}x^{2}\dots+na_{n}x^{n-1} \) (כלומר, הנגזרת של פולינום היא פולינום אחר, מדרגה קטנה ב-1).
באופן כללי, אם עבור פונקציה \( f \) ידוע לנו הערך של \( f^{\left(k\right)}\left(0\right) \) לכל \( k \), ואנו רוצים להשתמש בידע הזה כדי למצוא לה קירוב באמצעות פולינום; מתבקש להשתמש בפולינום שהערך שלו ושל נגזרותיו בנקודה 0 מתאים לערך של \( f \) ונגזרותיה בנקודה 0 (מאחר וזה המידע שיש לנו על \( f \)). שימו לב כי אם \( p\left(x\right)=a_{0}+a_{1}x+a_{2}x^{2}+\dots+a_{n}x^{n} \) אז \( p\left(0\right)=a_{0} \), כי כל מקדם שעדיין צמוד לחזקה חיובית של \( x \) נעלם. על פי אותו עקרון, \( p^{\prime}\left(0\right)=a_{1} \); ואילו \( p^{\left(2\right)}\left(0\right)=2a_{2} \) (כי אחרי שגזרנו את \( p \) פעם אחת, האיבר \( a_{2}x^{2} \) הפך ל-\( 2a_{2}x \); ואחרי גזירה שניה הוא הפך ל-\( 2a_{2} \) ואז איפוס \( x \) לא משפיע עליו). ומה יהיה \( p^{\left(k\right)}\left(0\right) \) באופן כללי? אפשר כבר לנחש שזה יהיה \( a_{k} \) כפול קבוע כלשהו - איזה? אחרי שגוזרים את \( p \) פעם אחת, \( a_{k}x^{k} \) הופך ל-\( ka_{k}x^{k-1} \); אחרי גזירה שנייה הוא הופך ל-\( \left(k-1\right)ka_{k}x^{k-2} \); אחרי שלישית, \( \left(k-2\right)\left(k-1\right)ka_{k}x^{k-3} \); ובסופו של דבר כש-\( x \) “ייעלם” ניוותר עם \( 1\cdot2\cdot3\cdots k\cdot a_{k} \), כלומר \( k!\cdot a_{k} \).
אם כן, הדרישה שהנגזרות של \( p \) בנקודה 0 יהיו זהות לנגזרות של \( f \) בנקודה 0 מאפשרת לנו למצוא באופן יחיד את מקדמי הפולינום: \( k!a_{k}=f^{\left(k\right)}\left(0\right) \), כלומר \( a_{k}=\frac{f^{\left(k\right)}\left(0\right)}{k!} \), ומכאן ש-\( p_{n}\left(x\right)=f\left(0\right)+f^{\prime}\left(0\right)x+\frac{f^{\left(2\right)}\left(0\right)}{2}x^{2}+\dots+\frac{f^{\left(n\right)}\left(0\right)}{n!}x^{n} \). כדי להפסיק לכתוב נוסחאות ארוכות ומפחידות, אעבור לסימון מקוצר ומפחיד: \( p_{n}\left(x\right)=\sum_{k=0}^{n}\frac{f^{\left(k\right)}\left(0\right)}{k!}x^{k} \). זהו פולינום טיילור מדרגה \( n \) (ולכן הוא מסומן כ-\( p_{n} \) ולא סתם כ-\( p \)) עבור הפונקציה \( f \). השאלה עד כמה זהו קירוב טוב (כלומר, עד כמה הערך של הפולינום בנקודות שאינן 0 קרוב לערך הפונקציה בנקודות אלו) תלויה מאוד בפונקציה, אולם ניתן לקבל הערכה כלשהי לגבי גודל הטעות. ניתן להראות כי לכל \( x \) מתקיים כי \( f\left(x\right)-p_{n}\left(x\right)=\frac{f^{\left(n+1\right)}\left(c\right)}{\left(n+1\right)!}x^{n+1} \), כלומר משהו שנראה כמו המחובר “הבא” בטור הטיילור, אבל כשהנגזרת ה-\( n+1 \)-ית לא מוערכת בנקודה 0, אלא בנקודה \( c \) כלשהי. מהי \( c \)? אם היינו יודעים אותה במפורש, היינו יודעים את השארית במפורש; כל מה שאפשר לומר עליה היא שהיא נמצאת אי שם בין 0 ו-\( x \) (ובפרט היא תלויה ב-\( x \) וב-\( n \); עבור \( x \)-ים ו-\( n \)-ים שונים יכולות להיות נקודות ביניים שונות). הנוסחה הזו מאפשרת לנו לחסום את גודל הטעות, אם אנחנו יודעים לחסום את גודל הנגזרת ה-\( n+1 \)-ית של \( f \) בקטע שבין 0 ו-\( x \).
נחזור כעת אל פונקציית האקספוננט. אמרנו שהיא מקיימת \( \exp^{\left(k\right)}\left(0\right)=1 \) לכל \( k \), כך שהפולינום במקרה זה הוא פשוט במיוחד: \( p_{n}\left(x\right)=\sum_{k=0}^{n}\frac{1}{k!}x^{k} \). אלא שפולינום פשוט זה לא מספיק - צריך גם להראות שהוא קירוב טוב, כלומר צריך לומר משהו על השארית. בואו נקבע לרגע את \( x \), וכדי לסמן שהוא קבוע נסמנו ב-\( x_{0} \); מה שאנחנו באמת רוצים להראות הוא שככל שאנחנו מגדילים את \( n \), ושומרים את \( x_{0} \) קבוע, אנחנו מקטינים את הטעות שלנו ככל שנרצה - כלומר, שהטעות שואפת לאפס כש-\( n \) שואף לאינסוף. בדרך כלל לא פשוט להראות את זה (ולא תמיד זה בכלל נכון), בגלל שההתנהגות של \( f^{\left(n\right)} \) בקטע שלנו עשויה “להתפרע”ככל שנגדיל את \( n \) (חשבו על נהג “משוגע” שכל הזמן נותן גז ובולם בפראות - פונקצית המקום שלו משתנה בצורה יחסית “נחמדה”כי ההתפרעויות מקזזות זו את זו, אבל אם נסתכל על הנגזרת של פונקצית המקום - המהירות - נראה שהיא “משוגעת”). אלא שבמקרה שלנו אין בעיה כי \( f^{\left(n\right)}=f \) לכל \( n \). אנחנו גם יודעים ש-\( f \) במקרה שלנו היא רציפה (זה מובטח ממשפט הקיום והיחידות) ולכן בפרט היא חסומה בקטע \( \left[0,x_{0}\right] \) (אינטואיטיבית תכונה זו ברורה יחסית, אך כמובן שיש להוכיח אותה פורמלית).
אם נסמן ב-\( M \) את החסם על גודל הפונקציה, אז \( \frac{f^{\left(n+1\right)}\left(c\right)}{\left(n+1\right)!}x_{0}^{n+1}\le\frac{x_{0}^{n+1}}{\left(n+1\right)!}\cdot M \). מכיוון שלכל מספר קבוע \( a \) מתקיים כי \( \frac{a^{n}}{n!}\to0 \) (האינטואיציה היא שבעוד \( a^{n} \) הוא מכפלה של \( a \) הקבוע בעצמו \( n \) פעמים, בעוד ש-\( n! \) היא מכפלה של מספרים שהולכים וגדלים, והחל משלב מסויים כולם יהיו גדולים מ-\( a \)) נובע שהשגיאה שואפת תמיד לאפס. מסקנה: הפולינומים מהווים קירוב טוב של \( \exp \), במובן זה שלכל \( x_{0} \) מתקיים \( p_{n}\left(x_{0}\right)\to\exp\left(x_{0}\right) \). בשל כך אפשר לשכוח מפולינומים ולעבור לדבר על \( \exp\left(x\right) \) כמיוצגת באמצעות טור חזקות אינסופי: \( \exp\left(x\right)=\sum_{n=0}^{\infty}\frac{x^{n}}{n!} \). בחלק מהמקרים בוחרים להגדיר את פונקצית האקספוננט באמצעות טור חזקות זה (צריך להראות שהוא מתכנס, אך זה פשוט למדי באמצעות תוצאות סטנדרטיות על טורי חזקות).
אם מתחילים עם הגדרה זו קל למדי להראות ש-\( \exp^{\prime}\left(x\right)=\exp\left(x\right) \), שכן התורה של טורי חזקות מצביעה על כך שניתן לגזור את הטור “איבר איבר” כדי לקבל את הטור המתאים לנגזרת - אך לא קשה לראות שאם גוזרים את הטור \( \sum_{n=0}^{\infty}\frac{x^{n}}{n!} \) איבר איבר, מקבלים את אותו הטור בדיוק! שהרי כשגוזרים את \( \frac{x^{n}}{n!} \) מקבלים \( \frac{x^{n-1}}{\left(n-1\right)!} \). אם כן, בגישה זו קל מאוד “לראות בעיניים” מדוע הנגזרת של אקספוננט היא האקספוננט עצמו; ה”חסרון” של שיטה זו היא שיש שרירותיות רבה כלשהי בלהתחיל מההגדרה \( \sum_{n=0}^{\infty}\frac{x^{n}}{n!} \) במקום להגיע אליה כתוצר “טבעי” של איזו שהיא דרישה בסיסית יותר (וזה גם פחות הרפתקני; במקום לטייל בג’ונגל עד שמגיעים לעיר העתיקה שקבורה בו, אנחנו מקבלים הקפצה במסוק).
יפה - אם כן, כעת יש לנו ייצוג מאוד קונקרטי לפונקצית האקספוננט, ואפילו שיטה לחשב אותה נומרית בכל דיוק שנרצה. מה עוד צריך, אם כן? אפיונים נוספים שישפכו עוד אור על הפונקציה הזו. אילו תכונות מעניינות הפונקציה מקיימת? כבר ראינו תכונה מעניינת מאוד: נגזרתה שווה לעצמה. כעת אציג תכונה מעניינת וחשובה לא פחות: \( \exp\left(x\right)\cdot\exp\left(y\right)=\exp\left(x+y\right) \). קל לראות את זה עכשיו, כשיש לנו את הייצוג של \( \exp \) כטור חזקות - אפשר ממש לכפול את שני הטורים. אתם יכולים להאמין לי שזה עובד, אבל גם בחישוב ה”טכני” יש יופי לא קטן וכדאי לדעתי לנסות ולעקוב אחריו. ראשית הבה וננסה להבין מהו \( \exp\left(x\right)\cdot\exp\left(y\right) \). כדי להקל על ההבנה כדאי לכתוב זאת כסכום בלי סיגמות: \( \exp\left(x\right)\cdot\exp\left(y\right)=\left(1+x+\frac{x^{2}}{2}+\dots\right)\left(1+y+\frac{y^{2}}{2}+\dots\right) \). אם נפתח את המכפלה הזו נקבל סכום של איברים שכל אחד מהם התקבל על ידי בחירת איבר אחד מהסכום השמאלי, ואיבר אחד מהסכום הימני, כלומר סכום של איברים מהצורה \( \frac{x^{k}}{k!}\cdot\frac{y^{t}}{t!} \). כרגע זה לא נראה מועיל במיוחד, אז נבצע שינוי משתנים מתוחכם (מי שתוהה איך הגעתי אליו - פשוט פותחים את \( \exp\left(x+y\right) \) ורואים מה היעד שלנו…): את החזקה של \( x \) נמשיך לסמן ב-\( k \), אבל את החזקה של \( y \) נסמן בתור \( n-k \) דווקא (כאשר \( n \) יכול להיות כל מספר טבעי גדול או שווה ל-\( k \); לכל \( n \) כזה, קיים איבר מתאים בסכום שבו \( x \) הוא בחזקת \( k \) ו-\( y \) הוא בחזקת \( n-k \)). עם הסימון הזה, האיבר שלנו הוא \( \frac{x^{k}y^{n-k}}{k!\left(n-k\right)!} \). אולי לחלקכם זה מתחיל להיראות מוכר. נכפול ונחלק ב-\( n! \) ונקבל \( \frac{n!}{k!\left(n-k\right)!}\frac{x^{k}y^{n-k}}{n!} \), כלומר \( \frac{\ {n \choose k}x^{k}y^{n-1}}{n!} \).
מכאן כבר העניינים מתגלגלים מהר: הסכום שלנו כעת ניתן לתיאור בתור \( \sum_{n=0}^{\infty}\frac{\sum_{k=0}^{n}{n \choose k}x^{k}y^{n-k}}{n!} \), ועל ידי הבינום של ניוטון נקבל כי סכום זה הוא \( \sum_{n=0}^{\infty}\frac{\left(x+y\right)^{n}}{n!} \), כלומר \( \exp\left(x+y\right) \), ובכך מסתיים העניין. גילינו, אם כן, כי \( \exp \) היא פונקציה שמתרגמת פעולת חיבור לפעולת כפל. כל תלמיד תיכון כבר נתקל בתופעה כזו, בחוקי חזקות. הרי \( x^{a}\cdot x^{b}=x^{a+b} \). מכאן צצה אינטואיציה חדשה לגבי מהותה של \( \exp \) - האם ייתכן שהיא פונקציה של העלאה בחזקה? ואם כן, על פי איזה בסיס? הדרך לגלות את הבסיס היא להציב 1 ב-\( \exp \) (כלומר, לקבל את הבסיס בחזקת 1). התוצאה היא המספר \( \exp\left(1\right)=1+1+\frac{1}{2}+\frac{1}{3!}+\frac{1}{4!}+\dots=2.71828\dots \) (שלוש הנקודות מסמלות, כרגיל, שהמספר לא נגמר בספרות אלו אלא ממשיך עד אין קץ). נהוג לסמן את המספר הזה ב-\( e \). לטעמי זהו הקבוע המתמטי המעניין ביותר; מעניין יותר מ-\( \pi \), אחיו המפורסם הרבה יותר. הטור מאפשר חישוב מאוד מהיר ויעיל של \( e \), להבדיל מ-\( \pi \) שחישוב יעיל שלו דורש התחכמויות נוספות. אם כן, המטרה שלנו כעת היא להראות ש-\( \exp \) היא בעצם פונקציה של העלאת \( e \) בחזקה.
כמובן, כדי לדבר על העלאה בחזקה צריך להגדיר במדוייק למה הכוונה. \( a^{2} \) הוא פשוט \( a\cdot a \), ובאותו אופן \( a^{n} \) עבור \( n \) טבעי הוא \( a\cdot a\cdots a \) במשך \( n \) פעמים, אך מהו \( a^{\pi} \)? חייבים לתת משמעות פורמלית לסימון הזה. האופן שבו עושים זאת הוא ראשית כל להגדיר את החזקה לכל מספר שלם, על ידי ההגדרה \( a^{-n}=\left(\frac{1}{a}\right)^{n} \) עבור \( n \) טבעי; ולהרחיב את ההגדרה לרציונליים על ידי כך שמגדירים \( a^{\frac{1}{n}}=\sqrt[n]{a} \) לכל \( n \) טבעי, ועל כן \( a^{\frac{m}{n}}=\sqrt[n]{a^{m}} \). עד כאן - חומר של תיכון. כדי להרחיב את ההגדרה לממשיים כבר צריך להשתמש בחשבון אינפיניטסימלי. באופן כללי בחשבון אינפיניטסימלי, כאשר יש לנו פונקציה \( f\left(x\right) \) שערכיה נקבעו כבר על כל המספרים הרציונליים, נובעת מכך דרך אחת ויחידה להרחיב את הפונקציה לכל הממשיים כך שהפונקציה המתקבלת תהיה רציפה. זוהי הרי מהות הרציפות - שאם יש לנו סדרת נקודות \( x_{n} \) כך ש-\( x_{n}\to a \) עבור \( a \) ממשי כלשהו, אז \( f\left(x_{n}\right)\to f\left(a\right) \). מכיוון שלכל מספר ממשי אפשר לקחת סדרת קירובים רציונליים שכזו, הערך של \( f \) ב-\( a \) מוכתב על ידי הערכים של \( f \) על המספרים הרציונליים.
כעת, אם \( f \) היא פונקציה רציפה שמקיימת את המשוואה \( f\left(x+y\right)=f\left(x\right)\cdot f\left(y\right) \) (משוואה זו מכונה לפעמים “משוואת קושי האקספוננציאלית”), ראשית כל נסמן \( a=f\left(1\right) \), וכעת לכל \( n \) טבעי מתקיים \( f\left(n\right)=f\left(1+\dots+1\right)=f\left(1\right)\cdots f\left(1\right)=a^{n} \), כלומר על הטבעיים \( f \) אכן מתנהגת כמו חזקה. קל לראות ש-\( a \) חייב להיות אי שלילי, שכן \( a=f\left(1\right)=f\left(\frac{1}{2}+\frac{1}{2}\right)=\left[f\left(\frac{1}{2}\right)\right]^{2} \), כלומר \( a \) הוא ריבוע של מספר ממשי כלשהו, ולכן חייב להיות אי שלילי.
השלב הבא הוא 0: מכיוון ש-\( 0=0+0 \) הרי ש-\( f\left(0\right)=f\left(0+0\right)=f\left(0\right)\cdot f\left(0\right)=\left[f\left(0\right)\right]^{2} \). איזה מספר ממשי שווה לריבוע שלו? רק 0 או 1; אבל אם \( f\left(0\right)=0 \) אז גם \( f\left(n\right)=f\left(n+0\right)=f\left(n\right)\cdot f\left(0\right)=0 \), וקיבלנו פונקציה לא מעניינת (שאפשר לחשוב עליה בתור \( f\left(x\right)=0^{x} \) - כלומר, אפילו במקרה הזה היא פונקציית העלאה בחזקה, אם מקבלים את הקונבנציה הלא שגרתית \( 0^{0}=0 \) במקרה זה). לכן \( f\left(0\right)=1 \). מכאן מגיעים מיידית להגדרה עבור שליליים: \( 1=f\left(0\right)=f\left(n+\left(-n\right)\right)=f\left(n\right)f\left(-n\right) \) ומכאן ש-\( f\left(-n\right)=\frac{1}{a^{n}}=\left(\frac{1}{a}\right)^{n} \), ולכן אפשר לומר ש-\( f\left(-n\right)=a^{-n} \).
השלב הבא הוא הרציונליים: \( a=f\left(1\right)=f\left(\frac{1}{n}+\dots+\frac{1}{n}\right)=\left[f\left(\frac{1}{n}\right)\right]^{n} \), כך ש-\( f\left(\frac{1}{n}\right)=\sqrt[n]{a} \) (עבור מספרים ממשיים אי שליליים תמיד קיים שורש שכזה; הסיבה לכך היא שהפונקציה \( g\left(x\right)=x^{n}-a \) היא רציפה, מקבלת ערך שלילי ב-\( x=0 \) אבל ערך אי שלילי ב-\( x=a \) ולכן על פי משפט ערך הביניים היא חייבת להתאפס היכן שהוא). דרישת הרציפות על \( a \) מסיימת כעת את המשחק: \( f\left(x\right)=a^{x} \) לכל \( x \) ממשי - כאשר, כזכור, \( a=f\left(1\right) \). במקרה של \( \exp \), \( \exp\left(1\right)=e \), ולכן \( \exp\left(x\right)=e^{x} \), לכל \( x \) ממשי. סיימנו את המעבר מההגדרה התמימה באמצעות משוואה דיפרנציאלית אל \( e^{x} \) שאנחנו מכירים ואוהבים.
בכל ההרפתקאה הזו נמנעתי במכוון - אפילו בכוח - מלהזכיר את פונקצית הלוגריתם הטבעי. למעשה, ברוב ספרי הלימוד שבהם מגדירים אקספוננט, הדרך לעשות זאת היא ראשית כל על ידי הגדרת הלוגריתם, ואז הגדרת האקספוננט כפונקציה ההופכית שלו, אבל על הלוגריתם הטבעי, המוטיבציה לו והדרך להגדיר אותו כבר אפשר וכדאי לכתוב פוסט נפרד, בעתיד. לעת עתה אני רק רוצה להפנות את תשומת הלב לעובדה אחת שעבורה אני זקוק ללוגריתם הטבעי: בעצם הוכחתי קודם כי כל פונקציה רציפה שמקיימת את משוואת קושי האקספוננציאלית היא מעריכית, כלומר מהצורה \( a^{x} \), אבל למעשה יש דרך אחרת לתאר פונקציה שכזו: מכיוון ש-\( a>0 \) הרי ש-\( a=e^{\ln a} \), ולכן את הפונקציה \( a^{x} \) אפשר גם לתאר בתור הפונקציה \( e^{\ln a\cdot x} \). זה גם מראה לנו מיידית מדוע הנגזרת של \( a^{x} \) היא \( a^{x}\cdot\ln a \) (הדבר נובע מכך ש-\( \left(e^{\ln a\cdot x}\right)^{\prime}=\left(\ln a\right)e^{\ln a\cdot x} \)), וגם אומר לנו שאפשר לתת לכל הפונקציות המעריכיות תיאור אחיד על ידי \( e^{kx} \), עבור \( k \) ממשי כלשהו; כך למשל הפתרון של המשוואה הדיפרנציאלית שהצגתי בפוסט הקודם היה פונקציה מעריכית שכזו.
גם עם הקבוע \( e \) לא גמרנו; יש עוד דרכים להגדיר אותו, ובראש ובראשונה בתור הגבול \( \lim_{n\to\infty}\left(1+\frac{1}{n}\right)^{n} \) (למעשה, אפשר גם להגדיר את פונקצית האקספוננט באמצעות וריאציה על גבול זה); וגם על כך אני מקווה לדבר בעתיד.
נהניתם? התעניינתם? אם תרצו, אתם מוזמנים לתת טיפ: