המשפט היסודי של החשבון הדיפרנציאלי והאינטגרלי

בפוסטים הקודמים על חדו”א הצגתי שני מושגים שונים, שבאו לפתור בעיות שונות והוגדרו בצורות לא קשורות - הנגזרת והאינטגרל. המשותף לשני המושגים הללו היה שבשניהם התבססנו על מושג הגבול כדי להגדיר אותם; ספציפית, הן הנגזרת והן האינטגרל הם תוצרים של תהליך קירוב כלשהו שבו הדיוק שלנו משתפר עד אין קץ; הנגזרת מודדת “מהירות ממוצעת” על פני פרקי זמן שהולכים וקטנים עד אינסוף, כך שהיא למעשה מתארת מהירות רגעית; והאינטגרל מודד שטח שנמדד בעזרת קירובים מלבניים שרוחבם הולך וקטן עד אינסוף (ובכך הדיוק של הקירוב באמצעותם משתפר). המשפט היסודי של החשבון הדיפרנציאלי והאינטגרלי מראה כי שני המושגים הללו הם שני צדדים של אותה המטבע; שחישוב של אינטגרל הוא במובן מסויים הפעולה ההפוכה מחישוב של נגזרת; וזוהי הסיבה שהחדו”א נקראת חשבון דיפרנציאלי (מלשון נגזרת) ואינטגרלי (מלשון אינטגרל) ומערבת את שני המושגים הללו יחד.

בתור התחלה, בואו נדבר על מושג שהזכרתי בחטף בסיום הפוסט שעסק בחישוב נגזרות - “אנטי-נגזרת” (באנגלית זה נשמע טיפה יותר טוב - Antiderivative), או בשם קצת יותר מקובל - פונקציה קדומה. פונקציה קדומה של פונקציה \( f \) היא פונקציה \( F \) כך ש-\( F^{\prime}=f \). כך למשל, פונקציה קדומה של \( f\left(x\right)=3x^{2} \) היא \( F\left(x\right)=x^{3} \). מאיפה ידעתי זאת? ובכן, זו הייתה אחת מהבשורות המרות בפוסט הקודם; בעוד שבכל הנוגע לנגזרת יש לנו ידע מצויין לגבי האופן שבו גזירה מתבצעת, עד כי אנחנו מסוגלים לחשב את הנגזרת של מרבית הפונקציות המעניינות אותנו בלי להפעיל כלל מחשבה (מה שאומר שאנחנו יכולים לתת למחשב לשבור על כך את הראש ולנוח), הרי שבכל הנוגע לחישוב פונקציות קדומות אין פתרונות קסם. יש הרבה ניסוי וטעיה שנכללים בחישוב של פונקציות קדומות. הרבה היכרות עם פונקציות קדומות של פונקציות קיימות (קחו פונקציה פשוטה, תגזרו אותה ותראו מה תקבלו - עכשיו אתם יודעים מה קורה בכיוון השני; כך למשל אפשר לראות שהפונקציה הקדומה של \( \frac{1}{1+x^{2}} \) היא \( \mbox{atan}\left(x\right) \), בעוד שמי היה חושב על זה בלי לגזור את \( \mbox{atan}\left(x\right) \) קודם?) ועוד כמה כללי אצבע מועילים וטכניקות פשוטות שלא אכנס כאן לתיאור שלהן. השורה התחתונה היא שאנחנו יודעים לחשב פונקציות קדומות לפונקציות רבות אך לא לכולן, וזה לא הכי כיף בעולם.

יש בעייתיות קטנה בדיבור על “הפונקציה הקדומה של פונקציה”, שנובעת מכך שלכל פונקציה יש הרבה פונקציות קדומות שונות, כי גזירה של פונקציה קבועה מאפסת אותה. לכן, אם \( F^{\prime}=f \) אז גם \( \left(F+C\right)^{\prime}=f \)לכל קבוע \( C \). מצד שני, לא קשה להראות שזהו ההבדל היחיד שיכול להיות בין פנקציות קדומות שונות: אם \( F,G \) שתיהן פונקציות קדומות של \( f \) אז \( \left(F-G\right)^{\prime}=f-f=0 \), כלומר הנגזרת של הפונקציה שהיא ההפרש בין \( F,G \) היא אפס בכל נקודה ולכן זו חייבת להיות פונקציה קבועה (לא הוכחתי זאת אך אינטואיטיבית זה ברור - נגזרת אפס בכל נקודה אומר שהפונקציה אינה משתנה ולו טיפה באף נקודה. הוכחה תגיע אולי בפוסט ייעודי שידבר על כמה מהשימושים הנחמדים של הנגזרת). לכן בתיכון אוהבים לנג’ס לתלמידים שמחשבים פונקציה קדומה של משהו ולתבוע מהם לכתוב “\( +C \)” אחריה כדי שיהיה ברור שבעצם יש לנו כאן קבוצה של פונקציות קדומות שנבדלות בקבוע ובלה בלה בלה. אני אישית מעולם לא הבנתי את הקטע.

יפה, אז נניח שאנחנו כן יודעים לחשב פונקציות קדומות פה ושם. איך זה עוזר לנו? ובכן, כאן מגיע הזבנג הגדול - היכולת לחשב פונקציות קדומות נותנת לנו את היכולת לחשב אינטגרלים. זה מפתיע, כי הנה התקשרו להם שני מושגים לא קשורים. מה שקורה הוא שאם \( f\left(x\right) \) היא פונקציה כך שהאינטגרל המסויים \( \int_{a}^{b}f\left(x\right)dx \) קיים, ואם יש לה פונקציה קדומה \( F\left(x\right) \) בקטע \( \left[a,b\right] \) (כלומר, לכל נקודה בקטע מתקיים \( F^{\prime}\left(x\right)=f\left(x\right) \)) אז \( \int_{a}^{b}f\left(x\right)dx=F\left(b\right)-F\left(a\right) \). כלומר, כדי לחשב את האינטגרל המסויים של הפונקציה בקטע - ולא משנה כמה היא משתוללת בקטע - מספיק למצוא את ההפרש בין ערכי הפונקציה הקדומה שלה בקצוות הקטע. אני לא יודע מה אתכם, אבל כשאני שמעתי על זה לראשונה הרגשתי שמרמים אותי ושמשהו לא תקין ביקום (אם כי יש להודות שכאשר מגיעים לחדו”א של פונקציות מרוכבות צצות ועולות תוצאות מטורפות הרבה יותר).

טוב, אז כמובן שזה רק נראה מטורף על פניו. במבט שני, המשפט דווקא הגיוני למדי. מה זה אומר ש-\( F \) היא הפונקציה הקדומה של \( f \)? ש-\( f \) מתארת את “כמות ההשתנות הרגעית” של \( F \) בכל נקודה. אם מבצעים אינטגרל על \( f \), בעצם מודדים את כמות ההשתנות של \( F \), ולכן לא מפליא כל כך שההפרש בין הערכים של \( F \) בקצותיה מתאר את אותה כמות השתנות. אפשר לחזור לדוגמאות פיזיקליות כדי לשפר את האינטואיציה: \( f \) מתארת מהירות, ואילו \( F \) מתארת מיקום. האינטגרל על \( f \) אכן אמור לתאר בדיוק את גודל השינוי במיקום (שימו לב שזה אינו אותו דבר כמו המרחק הכולל שעברנו - אם \( f \) מתארת תנועה שבה בהתחלה נסענו לכיוון אחד ואחר כך נסענו לכיוון ההפוך באותה מהירות ואותה כמות זמן, האינטגרל הכולל יהיה אפס; כדי למדוד את המרחק הכולל שעברנו צריך לחשב את \( \int_{a}^{b}\left|f\left(x\right)\right|dx \)). לסיום, שימו לב שלא חשוב איזו פונקציה קדומה של \( f \) אנחנו לוקחים - כי \( F\left(b\right)-F\left(a\right)=\left(F\left(b\right)+C\right)-\left(F\left(a\right)-C\right) \). לכן ההקפדה על הבדלה בין הפונקציות הקדומות השונות האפשריות נראית עוד יותר מיותרת.

מה שתיארתי כאן נקרא בשם המפוצץ המשפט היסודי של החשבון הדיפרנציאלי והאינטגרלי ויש בכך צדק מסויים שכן הוא קושר את מושגי הנגזרת והאינטגרל יחד. אם להיות הגונים, המשפט המלא אומר עוד משהו פרט לתוצאה שתיארתי למעלה - שלכל פונקציה רציפה קיימת פונקציה קדומה, וגם מתאר איך היא נראית. לכל \( f \) אפשר להגדיר פונקציה על ידי \( F\left(x\right)=\int_{a}^{x}f\left(t\right)dt \), כאשר \( a \) היא נקודה שרירותית. המשפט אומר כי בכל נקודה \( c \) שבה \( f \) היא רציפה, מתקיים ש-\( F \) גזירה וש-\( F^{\prime}\left(c\right)=f\left(c\right) \) (אני קצת לא מדייק טכנית - פורמלית המשפט מדבר על מה שקורה בקטע סגור - אבל נעזוב את זה). שימו לב שהבחירה השרירותית של \( a \) היא זו שקובעת איזה מאינספור הפונקציות הקדומות השונות של \( f \) נקבל - אם נבחר \( a \) אחר, נקבל \( F \) אחרת, אך כזו ששונה בקבוע בלבד מה-\( F \) “שלנו” (קל לראות את זה מתכונה של האינטגרל שלא תיארתי: \( \int_{a}^{b}f\left(x\right)dx=\int_{a}^{c}f\left(x\right)dx+\int_{c}^{b}f\left(x\right)dx \) - מדוע תכונה זו אכן מסייעת לנו להוכחת הטענה שלי?)

גם כאן לא קשה לראות את האינטואיציה שמובילה למשפט: \( F^{\prime}\left(c\right) \) היא השינוי הרגעי של \( F \) באיזור הנקודה \( c \). אם אנו ממשיכים לחשוב על אינטגרל כעל סכום, הרי שזהו השינוי שיתרחש בדיוק כאשר אנו מוסיפים לסכום את הערך של \( f \) בנקודה \( c \), כלומר \( f\left(c\right) \). הרציפות כאן היא הכרחית כי בגלל המשקל האפסי שיש לכל איבר בסכום, אם \( f \) הייתה “משתגעת” בנקודה \( c \) וקופצת לערך לא קשור בעליל, זה לא היה משפיע על האינטגרל. אלו פרטים טכניים שקשה להבהיר עם נפנופי הידיים שלי, וכאשר מנסים להוכיח פורמלית את המשפט הם צצים מאליהם - זוהי עוד דוגמה אחת מני רבות לאופן שבו הבנה אמיתית (וגם אינטואיציה חזקה יותר) של “מה שהולך שם” מגיעה רק על ידי לכלוך הידיים בפרטים הטכניים, שלטעמי הם מעניינים למדי כאן.

בואו נעבור לדוגמה קלאסית שכעת היא בהישג ידינו - חישוב שטח של עיגול. בפרט, עיגול היחידה - העיגול שרדיוסו 1. אי אפשר לתאר מעגל באמצעות פונקציה ממשית, כי למשל הנקודות \( \left(0,1\right) \) ו\( \left(0,-1\right) \) שתיהן על המעגל (אלו הנקודות העליונה והתחתונה ביותר) ולכן אם \( f \) הייתה מתארת את המעגל אז \( f\left(0\right) \) הייתה צריכה להיות גם 1 וגם מינוס 1 וזה אומר שזו אינה פונקציה. כמובן שיש דרך לתאר מעגל כפונקציה, אבל לא פונקציה \( f:\mathbb{R}\to\mathbb{R} \) אלא \( f:\mathbb{R}\to\mathbb{R}^{2} \) (פונקציה שמעבירה מספר ממשי לזוג מספרים ממשיים). גם על פונקציות כאלו ניתן לעשות חדו”א אבל התיאוריה מורכבת מעט יותר ואין סיבה להיכנס לכך כרגע.

מה כן אפשר לעשות? לתאר חצי מעגל באמצעות פונקציה. הפונקציה תתאר את הקו שהוא החצי העליון של המעגל. מכיוון שזהו מעגל היחידה, כל נקודה \( \left(x,y\right) \) שעליו מקיימת את המשוואה \( x^{2}+y^{2}=1 \) (למה? משפט פיתגורס - קחו נקודה על המעגל, הורידו אנך לציר \( x \), חברו את הנקודה לראשית הצירים בקו וחפשו טוב טוב את המשולש ישר הזווית). אם כן, \( y^{2}=1-x^{2} \). נוציא שורש לשני האגפים, ונקבל ש-\( y=\pm\sqrt{1-x^{2}} \); כאן אנחנו רואים איך יש לנו שתי בחירות אפשריות לערך של \( f\left(x\right) \). מכיוון שאנו רוצים לתאר את חצי המעגל העליון, נבחר תמיד באפשרות החיובית, כלומר נגדיר את הפונקציה \( f\left(x\right)=\sqrt{1-x^{2}} \). פונקציה זו, בתחום \( -1\le x\le1 \) מתארת את חצי מעגל היחידה העליון, ולכן השטח שכלוא בינה ובין ציר ה-\( x \), שהוא בדיוק \( \int_{-1}^{1}f\left(x\right)dx \), הוא שטח חצי עיגול היחידה. במילים אחרות, שטח עיגול היחידה הוא בדיוק \( 2\cdot\int_{-1}^{1}\sqrt{1-x^{2}}dx \). בואו נחשב את האינטגרל הזה.

הדרך לחשב את האינטגרל היא לגלות מהי הפונקציה הקדומה של \( \sqrt{1-x^{2}} \). באופן לא מפתיע כל כך, הפונקציות הטריגונומטריות באות לעזרתנו (למה לא מפתיע? כי הן קשורות בקשר אמיץ למעגלים). באופן כללי משהו מהצורה \( 1-x^{2} \) גורם לכמה נורות אדומות להבהב בראש של מי שכבר תרגל את הנושא הזה עוד ועוד. מה שעושים הוא לבצע הצבה: נסמן \( x=\sin t \), ובכך נחשוב על \( x \) לא בתור משתנה חופשי אלא בתור תוצאה של הפעלה של סינוס על משתנה חופשי \( t \), ואז נקבל:

\( \sqrt{1-x^{2}}=\sqrt{1-\sin^{2}t}=\sqrt{\cos^{2}t}=\cos t \)

קסם!

מאיפה חשבתי על להציב סינוס? ובכן - כפי שאמרתי, אין חוקים מסודרים כאן. רק כללי אצבע ונסיון, לצערי.

אם כן, בואו ננסה להבין לרגע מה הולך כאן. הייתה לי פונקציה \( f\left(x\right) \) ורציתי למצוא פונקציה \( F\left(x\right) \) כך ש-\( F^{\prime}\left(x\right)=f\left(x\right) \). כעת התחלתי לשחק ב”נדמה לי”, לפיו גם \( x \) הוא בעצמו פונקציה, נקרא לה \( g\left(t\right) \), ולכן אפשר לחשוב על \( f \) בתור \( f\left(g\left(t\right)\right) \). עכשיו, \( \left(F\left(g\left(t\right)\right)\right)^{\prime}=F^{\prime}\left(g\left(t\right)\right)\cdot g^{\prime}\left(t\right) \) על פי כלל השרשרת, ובמילים אחרות - אם אנחנו רוצים למצוא את הפונקציה הקדומה \( F \), אנחנו לא רוצים למצוא את הפונקציה הקדומה של \( \cos t \) לבדו (מי שינסה לעשות זאת יגלה את התוצאה המוזרה לפיה הפונקציה הקדומה של \( \sqrt{1-x^{2}} \) היא \( F\left(x\right)=x \), וזה כמובן לא נכון), אלא את הפונקציה הקדומה של \( \cos t\cdot\cos t \) (כי הנגזרת של \( \sin t \) היא \( \cos t \)). במילים אחרות, את הפונקציה הקדומה של \( \cos^{2}t \). מי שהתבלבל ולא הבין מה הלך כאן (וגם אני מתבלבל למרות שכרגע כתבתי את זה), לא נורא - זה עוד אחד מהפרטים הטכניים הקריטיים שקשה להסביר כאן על קצה המזלג, וחשוב להבין רק את האתגר הסופי שהגענו אליו - מציאת פונקציה קדומה של \( \cos^{2}t \).

זו לא פונקציה שקל למצוא לה פונקציה קדומה באופן נאיבי. אמנם, הנגזרת של \( \sin t \) היא \( \cos t \) אבל זה ממש לא אומר שהנגזרת של \( \sin^{2}t \) היא \( \cos^{2}t \) - נסו לגזור ותראו מה קורה. אם כן, עדיף לפשט קודם. לצורך הפישוט אגייס ללא הוכחה זהות טריגונומטרית - \( \cos^{2}t=\frac{1+\cos2t}{2} \). היד אמנם טיפה רועדת כשאני משתמש כך בזהות שאין לי שום דרך טובה להגיד מאין היא באה פרט ל”בואו נזכור שיש דבר כזה בתיכון”, וזה נותן לי מוטיבציה לכתוב פוסט שיסביר אחת ולתמיד מה ההגיון מאחורי כל הזהויות הללו ואיך אפשר לדעת לפתח אותן מאפס - אבל לא עכשיו.

למצוא את הפונקציה הקדומה של \( \frac{1+\cos2t}{2} \) זה כבר קל יחסית. ראשית, מה הפונקציה הקדומה של \( \cos2t \)? לא קשה לראות שזוהי \( \frac{\sin2t}{2} \). מכאן קצרה הדרך, בעזרת מה שאנחנו יודעים על חוקי הנגזרות, להסיק שהפונקציה הקדומה שאנחנו מחפשים היא \( \frac{t}{2}+\frac{\sin2t}{4} \). נסו לגזור את היצור הזה ותראו מה תקבלו. סינוס של זווית כפולה הוא קצת בעייתי לנו, ולכן נשתמש בעוד זהות טריגונומטרית ידועה: \( \sin2t=2\sin t\cos t \), ונקבל \( \frac{t+\sin t\cos t}{2} \).

הכל טוב ויפה רק שאנחנו עדיין בפונקציה לפי \( t \) ולא לפי \( x \). מכיוון ש-\( x=\sin t \), אז \( t=\mbox{arcsin}x \) (\( \mbox{arcsin} \) היא הפונקציה ההופכית ל-\( \sin \)). לכן \( \sin t=\sin\left(\mbox{arcsin}x\right)=x \) והכל טוב ויפה, אבל מה זה \( \cos t \)? ובכן, נביע גם אותו באמצעות סינוס: \( \cos t=\sqrt{1-\sin^{2}t}=\sqrt{1-x^{2}} \). נראה מוכר? כמובן, הרי זה מה שהתחלנו ממנו, רק בכיוון ההפוך!

אם כן, נקבל לבסוף את הפונקציה הקדומה הבאה: \( F\left(x\right)=\frac{\mbox{arcsin}x+x\sqrt{1-x^{2}}}{2} \). אם תגזרו את זה אכן תקבלו בסוף \( \sqrt{1-x^{2}} \) - אבל שימו לב כמה הפונקציה הקדומה “מכוערת” ביחס לנגזרת שלה, ובאופן כללי כמה לא פשוט היה התהליך של חישוב הפונקציה הקדומה. כאמור - ככה זה, אבל זה לא סוף העולם.

עכשיו אנחנו יכולים סוף סוף לחשב את האינטגרל \( \int_{-1}^{1}f\left(x\right)dx \) - על פי המשפט היסודי של החדו”א, הוא שווה ל-\( F\left(1\right)-F\left(-1\right) \). מהו \( F\left(1\right) \)? ובכן, ראשית כל \( \mbox{arcsin}\left(1\right) \) היא אותה זווית (בתחום שבין \( -\pi \) ו-\( \pi \)) שכאשר מציבים אותה בסינוס מקבלים 1 - זוהי הזווית \( \frac{\pi}{2} \) (מי שלא מבין איך פאי נכנס לתמונה פתאום - אנחנו מודדים זוויות לא במעלות אלא ברדיאנים, שעליהם כבר הסברתי בפוסט נפרד). בדומה, \( \mbox{arcsin}\left(-1\right)=-\frac{\pi}{2} \) (זה לא מקרי - סינוס היא פונקציה אי זוגית, כלומר מתקיים \( \sin\left(-x\right)=-\sin x \) לכל \( x \)). החלק המפחיד של ה-\( x\sqrt{1-x^{2}} \) עוד יותר פשוט, כי אם מציבים בו \( x=\pm1 \) מה שמתחת לשורש מתאפס ולכן כל העסק מתאפס. במילים אחרות, קיבלנו ש-\( F\left(1\right)-F\left(-1\right)=\frac{1}{2}\left(\frac{\pi}{2}-\left(-\frac{\pi}{2}\right)\right)=\frac{\pi}{2} \). זהו שטח חצי העיגול, ולכן שטח העיגול כולו הוא \( \pi \). הנה לכם הוכחה פורמלית לכך ששטח עיגול היחידה הוא \( \pi \) (תוך הסתמכות על כך שאנו יודעים לגזור סינוס; עניין לא טריוויאלי שגם על הקושי שבו רמזתי בפוסט נפרד).

אם כן, זהו המשפט היסודי של החדו”א. האם הסיפור נגמר כאן? בוודאי שלא - המשפט הזה הוא רק נקודת ההתחלה של האקשן האמיתי. ובכל זאת, הכוח שהוא נותן לנו הוא לא מבוטל; ולימודי החדו”א בבית הספר בעצם נגמרים כאן בכל הנוגע לאינטגרלים - רואים את הנוסחה שמאפשרת לחשב אינטגרלים מסויימים, ואז מחשבים הרבה כאלו. אני מקווה שתלמידים שנתקלים בתרגילים הללו אחרי ששרדו את הפוסט (יש כאלו?) ירגישו קצת פחות כאילו “עובדים עליהם”.


נהניתם? התעניינתם? אם תרצו, אתם מוזמנים לתת טיפ:

Buy Me a Coffee at ko-fi.com