diff --git a/2023/convolutions2/hebrew/sentence_translations.json b/2023/convolutions2/hebrew/sentence_translations.json index 48cd4924c..70d1a12e8 100644 --- a/2023/convolutions2/hebrew/sentence_translations.json +++ b/2023/convolutions2/hebrew/sentence_translations.json @@ -9,21 +9,21 @@ { "input": "Suppose I take a normal distribution with this familiar bell curve shape, and I have a random variable x that's drawn from that distribution.", "translatedText": "נניח שאני לוקח התפלגות נורמלית עם צורת עקומת הפעמון המוכרת הזו, ויש לי משתנה אקראי x שמתווה את ההתפלגות הזו.", - "n_reviews": 0, + "n_reviews": 1, "start": 2.36, "end": 9.7 }, { "input": "So what you're looking at right now are repeated samples of that random variable.", "translatedText": "אז מה שאתם מסתכלים עליו עכשיו הן דגימות חוזרות ונשנות של המשתנה האקראי הזה.", - "n_reviews": 0, + "n_reviews": 1, "start": 10.52, "end": 14.54 }, { "input": "And as a quick reminder, the way that you interpret this curve, what the function actually means, is that if you want the probability that your sample falls within a given range of values, say the probability that it ends up between negative one and two, well, that would equal the area under this curve in that range of values.", "translatedText": "ותזכורת מהירה, הדרך שבה אתם מפרשים את העקומה הזו, מה המשמעות של הפונקציה בעצם, היא שאם אתם רוצים את ההסתברות שהמדגם שלכם נופל בטווח נתון של ערכים, למשל ההסתברות שהוא יסתיים בין מינוס אחת למונוס 2, ההסתברות תשתווה לשטח מתחת לעקומה הזו בטווח הערכים הזה.", - "n_reviews": 0, + "n_reviews": 1, "start": 14.96, "end": 32.8 }, @@ -44,7 +44,7 @@ { "input": "And here's the quiz for you.", "translatedText": "והנה החידון בשבילכם.", - "n_reviews": 0, + "n_reviews": 1, "start": 43.28, "end": 44.44 }, @@ -58,14 +58,14 @@ { "input": "And the question is what distribution describes that sum that you're looking at?", "translatedText": "והשאלה היא איזו התפלגות מתארת את הסכום הזה שאתם מסתכלים עליו?", - "n_reviews": 0, + "n_reviews": 1, "start": 53.96, "end": 58.88 }, { "input": "You think about it for a little moment, maybe you have a guess, maybe you think, I don't know, it's another normal distribution, or something with a different shape.", "translatedText": "אם אתם חושבים על זה לרגע, אולי יש לכם ניחוש, אולי אתם חושבים שזו עוד התפלגות נורמלית, או משהו עם צורה אחרת.", - "n_reviews": 0, + "n_reviews": 1, "start": 59.38, "end": 66.5 }, @@ -79,42 +79,42 @@ { "input": "The real quiz is to be able to explain why you get the answer that you do.", "translatedText": "החידון האמיתי הוא להיות מסוגלים להסביר מדוע אתם מקבלים את התשובה שאתם מקבלים.", - "n_reviews": 0, + "n_reviews": 1, "start": 69.56, "end": 74.26 }, { "input": "In this case, if you have that deep to your bones visceral level of understanding for why the answer is what it is, you'll be a long way towards understanding why normal distributions serve the special function that they do in probability.", "translatedText": "במקרה זה, אם יש לכם רמת הבנה עמוקה מדוע התשובה היא מה שהיא, תהיה לכם דרך ארוכה לקראת ההבנה מדוע התפלגויות נורמליות משרתות את הפונקציה המיוחדת שהן מייצרות בהסתברות.", - "n_reviews": 0, + "n_reviews": 1, "start": 74.8, "end": 87.26 }, { "input": "Zooming out though, this is actually meant to be a much more general lesson about how you add two different random variables regardless of their distribution, not necessarily just the normally distributed ones.", "translatedText": "עם זאת, במבט נרחב יותר, זה למעשה אמור להיות שיעור כללי הרבה יותר על האופן שבו אתם מוסיפים שני משתנים אקראיים שונים ללא קשר להתפלגות שלהם, לא בהכרח רק את המשתנים עם פיזור בצורה נורמלית.", - "n_reviews": 0, + "n_reviews": 1, "start": 87.86, "end": 98.36 }, { "input": "This amounts to a special operation that you apply to the distributions underlying those variables.", "translatedText": "זה מסתכם בפעולה מיוחדת שתחול על ההתפלגויות שבבסיס המשתנים האלה.", - "n_reviews": 0, + "n_reviews": 1, "start": 99.1, "end": 104.44 }, { "input": "The operation has a special name, it's called a convolution.", "translatedText": "לפעולה יש שם מיוחד, היא נקראת קונבולציה.", - "n_reviews": 0, + "n_reviews": 1, "start": 104.66, "end": 107.52 }, { "input": "And the primary thing you and I will do today is motivate and build up two distinct ways to visualize what a convolution looks like for continuous functions, and then to talk about how these two different visualizations can each be helpful in different ways, with a special focus on the central limit theorem.", "translatedText": "והדבר העיקרי שאתם ואני נעשה היום הוא לבנות שתי דרכים ברורות לדמיין איך נראית קונבולציה עבור פונקציות רציפות, ואז לדבר על כך ששתי ההדמיות השונות הללו יכולות להועיל כל אחת בדרכים שונות, עם התמקדות במשפט הגבול המרכזי.", - "n_reviews": 0, + "n_reviews": 1, "start": 107.52, "end": 124.1 }, @@ -128,28 +128,28 @@ { "input": "As a quick side note, regular viewers among you might know there's already a video about convolutions on this channel.", "translatedText": "כהערת צד מהירה, צופים קבועים מבינכם עשויים לדעת שיש כבר סרטון על קונבולוציה בערוץ הזה.", - "n_reviews": 0, + "n_reviews": 1, "start": 131.66, "end": 137.68 }, { "input": "But that one had a pretty different focus, we were only doing the discrete case, and I wanted to show not just probability but the ways that it comes up in a wide variety of contexts.", "translatedText": "אבל לסרטון הזה היה מיקוד די שונה, עסקנו רק במקרה הבדיד, ורציתי להראות לא רק הסתברות אלא את הדרכים בהן הוא מופיע במגוון רחב של הקשרים.", - "n_reviews": 0, + "n_reviews": 1, "start": 137.68, "end": 146.1 }, { "input": "I'm in a slightly awkward spot because it doesn't really make sense for that to be a prerequisite to this video, but I think the best way to warm up today is to cover essentially one of the same examples used in that video.", "translatedText": "אני במקום קצת מביך כי זה לא ממש הגיוני שזה יהיה תנאי מוקדם לסרטון הזה, אבל אני חושב שהדרך הטובה ביותר להתחמם היום היא לעבור בעצם על אחת מאותן הדוגמאות בסרטון ההוא.", - "n_reviews": 0, + "n_reviews": 1, "start": 146.78, "end": 157.54 }, { "input": "So if you are coming straight from that one, you can probably skip safely ahead.", "translatedText": "אז אם אתם מגיעים ישר משם, אתם כנראה יכולים לדלג קדימה בבטחה.", - "n_reviews": 0, + "n_reviews": 1, "start": 157.56, "end": 161.38 }, @@ -163,182 +163,182 @@ { "input": "For this opening quiz question, each of the random variables can take on a value in a continuous infinite range of values, all possible real numbers.", "translatedText": "עבור שאלת החידון הפותחת, כל אחד מהמשתנים האקראיים יכול לקבל ערך בטווח אינסופי מתמשך של ערכים, כל המספרים הממשיים האפשריים.", - "n_reviews": 0, + "n_reviews": 1, "start": 166.86, "end": 174.78 }, { "input": "It'll be a lot easier if we warm up in a setting that's more discrete and finite, like maybe rolling a pair of weighted dice.", "translatedText": "יהיה הרבה יותר קל אם נתחמם בסביבה שהיא יותר דיסקרטית וסופית, כמו אולי הטלת זוג קוביות משוקללות.", - "n_reviews": 0, + "n_reviews": 1, "start": 175.3, "end": 181.78 }, { "input": "Here, the animation you're looking at is simulating two weighted dice, and you can probably tell what's going on, but just to spell it out explicitly, the blue die is following a distribution that seems to be biased towards lower values, the red die has a distinct distribution, and I'm repeatedly sampling from each one and recording the sum of the two values at each iteration.", "translatedText": "כאן, האנימציה שאתם מסתכלים עליה מדמה שתי קוביות משוקללות, וסביר להניח שאתם יכולים לדעת מה קורה, אבל רק כדי לאיית זאת במפורש, הקובייה הכחולה עוקבת אחר התפלגות שנראית כמוטה לערכים נמוכים יותר, לרוביה האדומה יש התפלגות ברורה, ואני דוגם שוב ושוב מכל אחת ורושם את הסכום של שני הערכים בכל איטרציה.", - "n_reviews": 0, + "n_reviews": 1, "start": 182.56, "end": 203.14 }, { "input": "Repeating samples like this many, many different times can give you a heuristic sense of the final distribution, but our real task today is to compute that distribution precisely.", "translatedText": "חזרה על דגימות כאלה פעמים רבות ושונות יכולה לתת לכם תחושה היוריסטית של ההתפלגות הסופית, אבל המשימה האמיתית שלנו היום היא לחשב את ההתפלגות הזו במדויק.", - "n_reviews": 0, + "n_reviews": 1, "start": 203.74, "end": 212.6 }, { "input": "What is the precise probability of rolling a 2, or a 3, or a 4, or a 5, on and on for all possibilities?", "translatedText": "מהי ההסתברות המדויקת לגלגל 2, או 3, או 4, או 5, וכו' לכל האפשרויות?", - "n_reviews": 0, + "n_reviews": 1, "start": 212.6, "end": 219.36 }, { "input": "It's not too hard a question, I'd actually encourage you to pause and try working it out for yourself.", "translatedText": "זו לא שאלה קשה מדי, אני ממש ממליץ לכם לעצור ולנסות לפתור את זה בעצמכם.", - "n_reviews": 0, + "n_reviews": 1, "start": 219.84, "end": 224.14 }, { "input": "The main goal in this warm-up section will be to walk through two distinct ways that you could visualize the underlying computation.", "translatedText": "המטרה העיקרית בקטע החימום הזה תהיה לעבור בשתי דרכים שונות שבהן תוכלו לראות את החישוב הבסיסי.", - "n_reviews": 0, + "n_reviews": 1, "start": 224.98, "end": 231.64 }, { "input": "For example, one way you could start to think about it is that there are 36 distinct possible outcomes, and we could organize those outcomes in a little 6x6 grid.", "translatedText": "לדוגמה, דרך אחת שאתם יכול להתחיל לחשוב על זה היא שיש 36 תוצאות אפשרויות ברורות, ואנחנו יכולים לארגן את התוצאות האלה בטבלה קטנה של 6x6.", - "n_reviews": 0, + "n_reviews": 1, "start": 232.92, "end": 242.36 }, { "input": "Now if I was to ask you, what is the probability of seeing any one of these specific outcomes, say the probability of seeing a blue 4 and a red 2, what would you say?", "translatedText": "עכשיו אם הייתי שואל אותכם, מה ההסתברות לראות כל אחת מהתוצאות הספציפיות האלה, נניח ההסתברות לראות 4 כחול ו-2 ואדום, מה הייתם אומרים?", - "n_reviews": 0, + "n_reviews": 1, "start": 243.04, "end": 252.5 }, { "input": "We might say it should be the probability of that blue 4 multiplied by the probability of the red 2.", "translatedText": "נוכל לומר שזו צריכה להיות ההסתברות של ה-4 הכחול כפול ההסתברות של ה-2 האדום.", - "n_reviews": 0, + "n_reviews": 1, "start": 253.04, "end": 258.24 }, { "input": "And that would be correct assuming that the die rolls are independent from each other.", "translatedText": "וזה יהיה נכון בהנחה שהטלות הקוביות אינן תלויות זו בזו.", - "n_reviews": 0, + "n_reviews": 1, "start": 258.78, "end": 263.08 }, { "input": "You might say that's kind of pedantic, of course the die rolls should be independent from each other, but it's a point worth emphasizing because everything that we're going to do from here moving forward, from this simple example all the way up to the central limit theorem, assumes that the random variables are independent.", "translatedText": "אפשר לומר שזה סוג של פדנטיות, כמובן שהטלת הקוביות צריכות להיות בלתי תלויות אחת בשנייה, אבל זו נקודה שכדאי להדגיש כי כל מה שאנחנו הולכים לעשות מכאן והלאה, מהדוגמה הפשוטה הזו ועד למשפט הגבול המרכזי, מניח שהמשתנים האקראיים אינם תלויים.", - "n_reviews": 0, + "n_reviews": 1, "start": 263.54, "end": 278.08 }, { "input": "In the real world, you want to keep a sharp eye out for if this assumption actually holds.", "translatedText": "בעולם האמיתי, אתם צריכים לפקוח עין חדה כדי לוודא שההנחה הזו אכן מתקיימת.", - "n_reviews": 0, + "n_reviews": 1, "start": 278.66, "end": 282.72 }, { "input": "Now what I'm going to do is take this grid of all possible outcomes, but start filling it in with some numbers.", "translatedText": "עכשיו, מה שאני הולך לעשות זה לקחת את הטבלה הזו של כל התוצאות האפשריות, אבל להתחיל למלא אותה במספרים.", - "n_reviews": 0, + "n_reviews": 1, "start": 283.64, "end": 288.82 }, { "input": "Maybe we'll put the numbers for all the probabilities of the blue die down on the bottom, all the probabilities for the red die over here on the left, and then we will fill in the grid where the probability for every outcome inside the grid looks like some product between one number from the blue distribution and one number from the red distribution.", "translatedText": "אולי נשים את המספרים של כל ההסתברויות של הקוביה הכחולה למטה, כל ההסתברויות של הקוביה האדומה כאן בצד שמאל, ואז נמלא את הטבלה שבה ההסתברות לכל תוצאה נראה כמו מכפלה בין מספר אחד מההתפלגות הכחולה למספר אחד מההתפלגות האדומה.", - "n_reviews": 0, + "n_reviews": 1, "start": 289.18, "end": 306.18 }, { "input": "Another way to think about it is we're basically constructing a multiplication table.", "translatedText": "דרך נוספת לחשוב על זה היא שאנחנו בעצם בונים לוח כפל.", - "n_reviews": 0, + "n_reviews": 1, "start": 306.68, "end": 310.34 }, { "input": "To be a little more visual about all of this, we could plot each one of these probabilities as the height of a bar above the square in this sort of three-dimensional plot.", "translatedText": "כדי להיות קצת יותר חזותיים לגבי כל זה, נוכל לשרטט כל אחת מההסתברויות הללו כגובה מוט מעל הריבוע בסוג כזה של תרשים תלת מימדי.", - "n_reviews": 0, + "n_reviews": 1, "start": 310.7, "end": 319.68 }, { "input": "In some sense, this three-dimensional plot carries all the data that we would need to know about rolling a pair of dice.", "translatedText": "במובן מסוים, התרשים התלת מימדי הזה מכיל את כל הנתונים שהיינו צריכים לדעת עליהם לגבי הטלת זוג קוביות.", - "n_reviews": 0, + "n_reviews": 1, "start": 320.12, "end": 325.6 }, { "input": "And so the question is how do we extract the thing that we want to know, the probabilities for various different sums?", "translatedText": "ולכן השאלה היא כיצד אנחנו מחלצים את הדבר שאנו רוצים לדעת, את ההסתברויות לסכומים שונים?", - "n_reviews": 0, + "n_reviews": 1, "start": 325.74, "end": 332.16 }, { "input": "Well, if you highlight all of the outcomes with a certain sum, say a sum of six, notice how all of those end up on a certain diagonal.", "translatedText": "ובכן, אם אתם מדגישים את כל התוצאות עם סכום מסוים, נניח סכום של 6, שימו לב איך כולם נמצאים באלכסון מסוים.", - "n_reviews": 0, + "n_reviews": 1, "start": 333.66, "end": 341.26 }, { "input": "Same deal if I highlight all the pairs where the sum is seven.", "translatedText": "אותו דבר אם אני מדגיש את כל הזוגות שבהם הסכום הוא 7.", - "n_reviews": 0, + "n_reviews": 1, "start": 341.74, "end": 344.72 }, { "input": "They sit along a different diagonal.", "translatedText": "הם נמצאים לאורך אלכסון אחר.", - "n_reviews": 0, + "n_reviews": 1, "start": 345.1, "end": 346.76 }, { "input": "So to compute the probability of each possible sum, what you do is you add together all of the entries that sit on one of these diagonals.", "translatedText": "אז כדי לחשב את ההסתברות של כל סכום אפשרי, מה שאתם עושים הוא לחבר את כל הערכים שנמצאים על אחד מהאלכסונים האלה.", - "n_reviews": 0, + "n_reviews": 1, "start": 347.24, "end": 354.8 }, { "input": "Pulling up the 3D plot, we can better foreshadow where we'll go with this later by saying that the distribution of possible sums looks like combining all of the heights of this plot along one of these diagonal slices.", "translatedText": "אם ננסתכל על התרשים התלת-ממדי, נוכל לראות טוב יותר לאן נלך עם זה מאוחר יותר על ידי כך שנאמר שההתפלגות של הסכומים האפשריים נראית כמו צרוף של כל הגבהים של התרשים הזה לאורך אחד הפרוסות האלכסוניות האלו.", - "n_reviews": 0, + "n_reviews": 1, "start": 358.28, "end": 370.4 }, { "input": "It's as if we've taken this full distribution for all possible outcomes and we've kind of collapsed it along one of the directions.", "translatedText": "זה כאילו לקחנו את ההתפלגות המלאה הזו לכל התוצאות האפשריות וסוג של צרפנו אותה לאורך אחד הכיוונים.", - "n_reviews": 0, + "n_reviews": 1, "start": 372.08, "end": 378.98 }, { "input": "And admittedly, I'm just having a bit of fun with the animations at this point, not like if you were working this out with pencil and paper, you would be drawing some three-dimensional plot.", "translatedText": "ואני מודה, אני פשוט נהנה קצת עם האנימציות בשלב זה. זה לא כמו אם הייתם עובדים על זה עם עיפרון ונייר, הייתם מציירים איזה תרשים תלת מימדי.", - "n_reviews": 0, + "n_reviews": 1, "start": 380.96, "end": 388.9 }, @@ -359,7 +359,7 @@ { "input": "Also, even though all of this might just seem a little bit playful or even unnecessarily complicated, I can promise you this intuition about diagonal slices will come back to us later for a genuinely satisfying proof.", "translatedText": "כמו כן, למרות שכל זה עשוי להיראות מסובך שלא לצורך, אני יכול להבטיח לכם שהאינטואיציה הזו לגבי פרוסות אלכסוניות תחזור אלינו מאוחר יותר להוכחה מספקת באמת.", - "n_reviews": 0, + "n_reviews": 1, "start": 396.96, "end": 408.54 }, @@ -373,7 +373,7 @@ { "input": "Take that bottom distribution and flip it around horizontally, so that the die values increase as you go from right to left.", "translatedText": "קחו את ההתפלגות התחתונה הזו והפכו אותה אופקית, כך שערכי הקוביות יגדלו ככל שאתם מתקדמים מימין לשמאל.", - "n_reviews": 0, + "n_reviews": 1, "start": 414.78, "end": 421.34 }, @@ -394,49 +394,49 @@ { "input": "As it's positioned right now, we have 1 and 6, 2 and 5, 3 and 4, and so on.", "translatedText": "כפי שהגרפים ממוקמים כרגע, יש לנו 1 ו-6, 2 ו-5, 3 ו-4 וכן הלאה.", - "n_reviews": 0, + "n_reviews": 1, "start": 428.86, "end": 434.72 }, { "input": "It is all of the pairs of values that add up to 7.", "translatedText": "אלו כל צמדי הערכים שמסתכמים ב-7.", - "n_reviews": 0, + "n_reviews": 1, "start": 434.9, "end": 438.1 }, { "input": "So if you want to think about the probability of rolling a 7, a way to hold that computation in your mind is to take all of the pairs of probabilities that line up with each other, multiply together those pairs, and then add up all of the results.", "translatedText": "אז אם אתם רוצים לחשוב על ההסתברות לזרוק 7, דרך לבצע את החישוב הזה היא לקחת את כל צמדי ההסתברויות שמסתדרים זה עם זה, להכפיל יחד את הזוגות האלה, ואז לחבר את כל התוצאות.", - "n_reviews": 0, + "n_reviews": 1, "start": 438.1, "end": 452.2 }, { "input": "Some of you might like to think of this as a kind of dot product.", "translatedText": "חלקכם אולי רוצים לחשוב על זה כעל סוג של מכפלה סקלרית.", - "n_reviews": 0, + "n_reviews": 1, "start": 452.94, "end": 455.64 }, { "input": "But the operation as a whole is not just one dot product, but many.", "translatedText": "אבל הפעולה בכללותה היא לא רק מכפלה סקלרית אחת, אלא רבות.", - "n_reviews": 0, + "n_reviews": 1, "start": 456.18, "end": 459.92 }, { "input": "If we were to slide that bottom distribution a little more to the left, so in this case it looks like the die values which line up are 1 and 4, 2 and 3, 3 and 2, 4 and 1, in other words all the ones that add up to a 5, well now if we take the dot product, we multiply the pairs of probabilities that line up and add them together, that would give us the total probability of rolling a 5.", "translatedText": "אם היינו מזיזים את ההתפלגות התחתונה קצת יותר שמאלה, אז במקרה הזה זה נראה כאילו ערכי הקוביות שמופיעים בשורה הם 1 ו-4, 2 ו-3, 3 ו-2, 4 ו-1, במילים אחרות כל אלה שסכומם 5. ובכן, אם ניקח את המכפלה הסקלרית, נכפיל את צמדי ההסתברויות ונחבר אותם יחד, זה ייתן לנו את ההסתברות הכוללת להטיל 5.", - "n_reviews": 0, + "n_reviews": 1, "start": 460.36, "end": 482.54 }, { "input": "In general, from this point of view, computing the full distribution for the sum looks like sliding that bottom distribution into various different positions and computing this dot product along the way.", "translatedText": "באופן כללי, מנקודת מבט זו, חישוב ההתפלגות המלאה עבור הסכום נראה כמו הזזה של ההתפלגות התחתונה למיקומים שונים וחישוב המכפלות הללו לאורך הדרך.", - "n_reviews": 0, + "n_reviews": 1, "start": 483.2, "end": 493.28 }, @@ -450,13 +450,13 @@ { "input": "They're just two different ways to visualize the same underlying operation.", "translatedText": "הן רק שתי דרכים שונות להציג את אותה פעולה בסיסית.", - "n_reviews": 0, + "n_reviews": 1, "start": 500.38, "end": 503.8 }, { "input": "And however you choose to visualize it, this operation that takes in two different distributions and spits out a new one, describing the sum of the relevant random variables, is called a convolution, and we often denote it with this asterisk.", - "translatedText": "ואיך שתבחרו להציג את זה, הפעולה הזו שלוקחת שתי התפלגויות שונות ופולטות אחת חדשה, המתארת את סכום המשתנים האקראיים הרלוונטיים, נקראת קונבולציה, ולעתים קרובות אנחנו מציינים אותה ע"י הכוכבית הזו.", + "translatedText": "ואיך שתבחרו להציג את זה, הפעולה הזו שלוקחת שתי התפלגויות שונות ופולטות אחת חדשה, המתארת את סכום המשתנים האקראיים הרלוונטיים, נקראת קונבולציה, ולעתים קרובות אנחנו מציינים אותה ע\"י הכוכבית הזו.", "n_reviews": 0, "start": 507.24, "end": 520.88 @@ -464,21 +464,21 @@ { "input": "Really the way you want to think about it, especially as we set up for the continuous case, is to think of it as combining two different functions and spitting out a new function.", "translatedText": "באמת הדרך שבה אתם רוצה לחשוב על קונבולוציה, במיוחד כשאנחנו מגדירים את המקרה הרציף, היא לחשוב עליה כשילוב של שתי פונקציות שונות שפולטות פונקציה חדשה.", - "n_reviews": 0, + "n_reviews": 1, "start": 520.88, "end": 529.24 }, { "input": "For example, in this case, maybe I give the function for the first distribution the name px.", "translatedText": "לדוגמה, במקרה זה, אולי אני נותן לפונקצית ההתפלגות הראשונה את השם px.", - "n_reviews": 0, + "n_reviews": 1, "start": 530.32, "end": 535.48 }, { "input": "This would be a function that takes in a possible value for the die, like a 3, and it spits out the corresponding probability.", "translatedText": "זו תהיה פונקציה שמקבלת ערך אפשרי עבור הקוביה, כמו 3, ופולטת את ההסתברות המתאימה.", - "n_reviews": 0, + "n_reviews": 1, "start": 535.82, "end": 542.98 }, @@ -492,105 +492,105 @@ { "input": "In the lingo, what you would say is that px plus y is equal to a convolution between px and py.", "translatedText": "בז'רגון, מה שתגידו זה ש-px פלוס y שווה לקונבולולוציה בין px ל-py.", - "n_reviews": 0, + "n_reviews": 1, "start": 553.96, "end": 561.08 }, { "input": "And what I want you to think about now is what the formula for this operation should look like.", "translatedText": "ומה שאני רוצה שתחשבו עליו עכשיו זה איך אמורה להיראות הנוסחה של הפעולה הזו.", - "n_reviews": 0, + "n_reviews": 1, "start": 561.68, "end": 566.14 }, { "input": "You've seen two different ways to visualize it, but how do we actually write it down in symbols?", "translatedText": "ראינו שתי דרכים שונות לתאר אותה, אבל איך בעצם נכתוב אותה בסמלים?", - "n_reviews": 0, + "n_reviews": 1, "start": 566.44, "end": 570.46 }, { "input": "To get your bearings, maybe it's helpful to write down a specific example, like the case of plugging in a 4, where you add up over all the different pairwise products corresponding to pairs of inputs that add up to a 4.", "translatedText": "כדי להבין יותר טוב, אולי מועיל לרשום דוגמה ספציפית, כמו מקרה של הצבה של 4, שבו אתם מסכמים את כל המכפלות המתאימות לזוגות של קלטים שסכומם 4.", - "n_reviews": 0, + "n_reviews": 1, "start": 570.96, "end": 581.66 }, { "input": "And more generally, here's how it might look.", "translatedText": "ובאופן כללי יותר, הנה איך הפונקציה עשויה להיראות.", - "n_reviews": 0, + "n_reviews": 1, "start": 582.46, "end": 584.54 }, { "input": "This new function takes as an input a possible sum for your random variables, which I'll call s, and what it outputs looks like a sum over a bunch of pairs of values for x and y.", "translatedText": "הפונקציה החדשה הזו לוקחת כקלט סכום אפשרי עבור המשתנים האקראיים, שאקרא להם s, ומה שהיא מפיקה נראה כמו סכום על פני קבוצה של זוגות ערכים עבור x ו-y.", - "n_reviews": 0, + "n_reviews": 1, "start": 584.98, "end": 595.82 }, { "input": "Except the usual way it's written is not to write with x and y, but instead we just focus on one of those variables, in this case x, letting it range over all of its possible values, which here just means going from 1 to 6.", "translatedText": "חוץ מהדרך הרגילה שבה היא כתובה היא לא עם x ו-y, אלא אנחנו פשוט מתמקדים באחד מהמשתנים האלה, במקרה הזה x, נותנים לו לנוע על פני כל הערכים האפשריים שלו, שכאן זהו רק מעבר מ-1 ל-6.", - "n_reviews": 0, + "n_reviews": 1, "start": 595.82, "end": 608.36 }, { "input": "And instead of writing y, you write s minus x, essentially whatever the number has to be to make sure the sum is s.", "translatedText": "ובמקום לכתוב y, אתם כותבים s מינוס x, בעצם מה המספר שצריך כדי לוודא שהסכום הוא s.", - "n_reviews": 0, + "n_reviews": 1, "start": 608.84, "end": 615.72 }, { "input": "Now the astute among you might notice a slightly weird quirk with the formula as it's written.", "translatedText": "כעת, הפקחים מבינכם עשוים להבחין בדבר מעט מוזר בנוסחה כפי שהיא כתובה.", - "n_reviews": 0, + "n_reviews": 1, "start": 617.3, "end": 621.68 }, { "input": "For example, if you plug in a given value like s equals 4, and you unpack this sum, letting x range over all the possible values going from 1 up to 6, then sometimes that corresponding y value drops below the domain of what we've explicitly defined.", "translatedText": "לדוגמה, אם אתם מחברים ערך נתון כמו s שווה 4, ואתם מפרקים את הסכום הזה, כאשר-x עובר על פני כל הערכים האפשריים מ-1 עד 6, אז לפעמים ערך ה-y המקביל נופל מחוץ לתחום שהגדרנו.", - "n_reviews": 0, + "n_reviews": 1, "start": 622.22, "end": 636.96 }, { "input": "For example, you plug in 0 and negative 1 and negative 2.", "translatedText": "לדוגמה, אתם מציבים 0 ומינוס 1 ומינוס 2.", - "n_reviews": 0, + "n_reviews": 1, "start": 637.4, "end": 640.54 }, { "input": "It's not actually that big a deal, essentially you would just say all of these values are 0, so all these later terms don't get counted.", "translatedText": "זה בעצם לא כזה עניין, בעצם הייתם אומרים שכל הערכים האלה הם 0, ולכן כל הביטויים האחרונים האלה לא נספרים.", - "n_reviews": 0, + "n_reviews": 1, "start": 641.2, "end": 648.16 }, { "input": "And that should kind of make sense.", "translatedText": "וזה אמור להיות הגיוני.", - "n_reviews": 0, + "n_reviews": 1, "start": 648.64, "end": 649.74 }, { "input": "What is the probability that the red die rolls to become a negative 1?", "translatedText": "מה ההסתברות שהקוביה האדומה תוטל ותהפוך למינוס 1?", - "n_reviews": 0, + "n_reviews": 1, "start": 649.9, "end": 653.28 }, { "input": "Well, it's 0.", "translatedText": "ובכן, היא 0.", - "n_reviews": 0, + "n_reviews": 1, "start": 653.82, "end": 654.82 }, @@ -604,63 +604,63 @@ { "input": "As a next step, let's turn our attention towards continuous distributions, where your random variable can take on values anywhere in an infinite continuum, like all possible real numbers.", "translatedText": "כשלב הבא, נפנה את תשומת הלב שלנו להתפלגות רציפות, שבהן המשתנה האקראי שלכם יכול לקבל ערכים בכל מקום ברצף אינסופי, כמו כל המספרים הממשיים האפשריים.", - "n_reviews": 0, + "n_reviews": 1, "start": 661.04, "end": 671.04 }, { "input": "Maybe you're doing weather modeling and trying to predict the temperature tomorrow at noon, or you're doing some financial projections, or maybe you're modeling the typical wait times before a bus arrives.", "translatedText": "אולי אתם מפעילים מודלים של מזג אוויר ומנסים לחזות את הטמפרטורה מחר בצהריים, או שאתם מבצעים כמה תחזיות פיננסיות, או אולי אתם ממדלים את זמני ההמתנה האופייניים לפני שמגיע אוטובוס.", - "n_reviews": 0, + "n_reviews": 1, "start": 671.52, "end": 680.62 }, { "input": "There are all sorts of things where you need to handle continuity.", "translatedText": "יש כל מיני דברים שבהם אתם צריכים לטפל בהמשכיות.", - "n_reviews": 0, + "n_reviews": 1, "start": 680.84, "end": 683.36 }, { "input": "In all the graphs that we draw, the x value still represents a possible number that the random variable can take on, but the interpretation of the y-axis is a little bit different, because no longer does this represent probability, instead the thing that we're graphing is what's called probability density.", "translatedText": "בכל הגרפים שאננחו מציירים, ערך ה-x עדיין מייצג מספר אפשרי שהמשתנה האקראי יכול לקבל, אבל הפירוש של ציר ה-y הוא קצת שונה, כי הוא כבר לא מייצג הסתברות. במקום זאת הדבר שאנחנו משרטטים הוא מה שנקרא צפיפות הסתברות.", - "n_reviews": 0, + "n_reviews": 1, "start": 683.9, "end": 699.84 }, { "input": "This is something we've talked about before, so you know the deal.", "translatedText": "זה משהו שדיברנו עליו בעבר, אז אתם יודעים מה קורה.", - "n_reviews": 0, + "n_reviews": 1, "start": 700.32, "end": 703.02 }, { "input": "Essentially, the probability that a sample of your variable falls within a given range looks like the area under the curve in that range.", "translatedText": "בעיקרו של דבר, ההסתברות שמדגם של המשתנה שלכם נופל בטווח נתון נראית כמו השטח מתחת לעקומה בטווח זה.", - "n_reviews": 0, + "n_reviews": 1, "start": 703.44, "end": 711.16 }, { "input": "The function describing this curve is commonly called a probability density function, a common enough phrase that it's frequently just given the abbreviation PDF.", "translatedText": "הפונקציה המתארת את העקומה הזו נקראת בדרך כלל פונקציית צפיפות הסתברות, ביטוי שכיח מספיק כך שלעתים קרובות היא ניתנת רק כקיצור PDF.", - "n_reviews": 0, + "n_reviews": 1, "start": 711.62, "end": 719.66 }, { "input": "And so the proper way to write all of this down would be to say that the probability that your sample falls within a given range looks like the integral of your PDF, the probability density function, in that range.", "translatedText": "ולכן הדרך הנכונה לכתוב את כל זה תהיה לומר שההסתברות שהדגימה שלך נמצאת בטווח נתון נראית כמו האינטגרל של ה-PDF שלכם, פונקציית צפיפות ההסתברות, בטווח הזה.", - "n_reviews": 0, + "n_reviews": 1, "start": 720.38, "end": 732.02 }, { "input": "As a general rule of thumb, any time that you see a sum in the discrete case, you would use an integral in the continuous case.", "translatedText": "ככלל אצבע, בכל פעם שאתם רואים סכום במקרה הדיסקרטי, תשתמשו באינטגרל במקרה הרציף.", - "n_reviews": 0, + "n_reviews": 1, "start": 732.88, "end": 739.6 }, @@ -674,13 +674,13 @@ { "input": "Let's say we have two different random variables, but this time each one will follow a continuous distribution, and we want to understand their sum and the new distribution that describes that sum.", "translatedText": "נניח שיש לנו שני משתנים אקראיים שונים, אבל הפעם כל אחד יעקוב אחר התפלגות רציפה, ואנחנו רוצים להבין את הסכום שלהם ואת ההתפלגות החדשה שמתארת את הסכום הזה.", - "n_reviews": 0, + "n_reviews": 1, "start": 743.86, "end": 754.1 }, { "input": "You can probably already guess what the formula will be just by analogy.", - "translatedText": "אתם כנראה כבר יכולים לנחש מה תהיה הנוסחה רק ע"י אנלוגיה.", + "translatedText": "אתם כנראה כבר יכולים לנחש מה תהיה הנוסחה רק ע\"י אנלוגיה.", "n_reviews": 0, "start": 755.42, "end": 758.92 @@ -688,28 +688,28 @@ { "input": "Remember, in the formula that we just wrote down, where p sub x is the function for the first variable and p sub y is the function for the second variable, the convolution between them, the thing describing a sum of those variables, itself looks like a sum where we combine a bunch of pairwise products.", "translatedText": "זכרו, בנוסחה שכתבנו זה עתה, כאשר Px היא הפונקציה של המשתנה הראשון ו-Py היא הפונקציה של המשתנה השני, הקונבולולוציה ביניהם, הדבר שמתאר את הסכום של אותם משתנים, בעצמו נראה כמו סכום שבו אנחנו מצרפים קבוצה של מכפלות.", - "n_reviews": 0, + "n_reviews": 1, "start": 759.4, "end": 775.84 }, { "input": "The expression in the continuous case really does look 100% analogous, it's just that we swap out that sum for an integral.", "translatedText": "הביטוי במקרה הרציף באמת נראה אנלוגי ב-100%, רק שאנחנו מחליפים את הסכום באינטגרל.", - "n_reviews": 0, + "n_reviews": 1, "start": 776.48, "end": 782.98 }, { "input": "Sometimes when students see this definition of a convolution out of context, it can seem a little intimidating.", "translatedText": "לפעמים כאשר תלמידים רואים את ההגדרה הזו של קונבולוציה מחוץ להקשר, זה יכול להיראות קצת מאיים.", - "n_reviews": 0, + "n_reviews": 1, "start": 783.76, "end": 788.62 }, { "input": "Hopefully the analogy is enough to make it clear, but the continuous nature really does give it a different flavor, and it's worth taking a couple minutes to think through what it means on its own terms.", "translatedText": "אני מקווה שהאנלוגיה מספיקה כדי להבהיר את הביטוי, אבל הרציפות באמת נותנת לו טעם אחר, ושווה להקדיש כמה דקות כדי לחשוב מה זה אומר.", - "n_reviews": 0, + "n_reviews": 1, "start": 789.1, "end": 798.34 }, @@ -723,35 +723,35 @@ { "input": "For example, the first term in this integral is f of x, which represents the density function for the first of the two random variables.", "translatedText": "לדוגמה, האיבר הראשון באינטגרל זה הוא f של x, המייצג את פונקציית הצפיפות עבור המשתנה האקראי הראשון מבין השניים.", - "n_reviews": 0, + "n_reviews": 1, "start": 805.8, "end": 813.56 }, { "input": "And in this case I'm choosing this sort of wedge-shaped function for that distribution, but it could be anything.", "translatedText": "ובמקרה הזה אני בוחר בסוג הזה של פונקציה בצורת טריז עבור ההתפלגות הזו, אבל זה יכול להיות כל דבר.", - "n_reviews": 0, + "n_reviews": 1, "start": 813.94, "end": 818.82 }, { "input": "Similarly, g represents the density function for the second random variable, for which I'm choosing this sort of double lump-shaped distribution.", "translatedText": "באופן דומה, g מייצגת את פונקציית הצפיפות עבור המשתנה האקראי השני, שעבורו אני בוחר סוג זה של התפלגות בצורת דבשת כפולה.", - "n_reviews": 0, + "n_reviews": 1, "start": 819.66, "end": 826.82 }, { "input": "And in the same way that earlier we went over all possible pairs of dice values with a given sum, the way you want to think about this integral is that what it wants to do is iterate over all possible pairs of values x and y that are constrained to a given sum, s.", "translatedText": "ובאותה דרך שבה קודם לכן עברנו על כל זוגות ערכי הקוביות האפשריים עם סכום נתון, הדרך שבה אתם רוצים לחשוב על האינטגרל הזה היא שמה שהוא רוצה לעשות זה לעבור על כל זוגות הערכים x ו-y האפשריים שמוגבלים לסכום נתון s.", - "n_reviews": 0, + "n_reviews": 1, "start": 826.82, "end": 842.8 }, { "input": "We don't really have great notation for doing that symmetrically, so instead the way we commonly write it down gives this artificial emphasis to one of the variables, in this case x, where we let that value x range over all possible real numbers, negative infinity up to infinity, and the thing we plug into the function g is s minus x, essentially whatever it has to be to make sure that this sum is constrained to be s.", "translatedText": "אין לנו סימון מוצלח לעשות את זה באופן סימטרי, אז במקום זאת הדרך שבה אנחנו נוהגים לכתוב את זה נותנת דגש מלאכותי לאחד המשתנים, במקרה הזה x, שבו אנחנו נותנים לערך של x לעבור על כל המספרים הממשיים האפשריים, אינסוף שלילי עד אינסוף, והדבר שאנו מחברים לפונקציה g הוא s מינוס x, בעצם מה שצריך כדי לוודא שהסכום הזה מוגבל ל-s.", - "n_reviews": 0, + "n_reviews": 1, "start": 843.34, "end": 867.86 }, @@ -772,7 +772,7 @@ { "input": "Well, if you plug in negative x as the input, that has the effect of flipping around the graph horizontally.", "translatedText": "ובכן, אם תציבו x שלילי כקלט, יש לכך השפעה של היפוך הגרף אופקית.", - "n_reviews": 0, + "n_reviews": 1, "start": 877.68, "end": 883.9 }, @@ -786,56 +786,56 @@ { "input": "In the demo, s is a parameter that I'll just grab and shift around a little bit.", "translatedText": "בהדגמה, s הוא פרמטר שאותו אני רק אקח ואזיז מעט.", - "n_reviews": 0, + "n_reviews": 1, "start": 894.64, "end": 898.32 }, { "input": "The real fun comes from graphing the entire contents of the integral, the product between these two graphs.", "translatedText": "הכיף האמיתי נובע מציור הגרפים של כל התוכן של האינטגרל, המכפלה בין שני הגרפים הללו.", - "n_reviews": 0, + "n_reviews": 1, "start": 898.7, "end": 904.24 }, { "input": "This is analogous to the list of pairwise products that we saw earlier, but in this case, instead of adding up all of those pairwise products, we want to integrate them together, which you would interpret as the area underneath this product graph.", "translatedText": "זה מקביל לרשימת המכפלות שראינו קודם לכן, אבל במקרה הזה, במקום חבר את כל המכפלות האלה, אנחנו רוצים לבצע אינטגרציה שלהם יחד, מה שתפרשו כאזור שמתחת לגרף המכפלה הזה.", - "n_reviews": 0, + "n_reviews": 1, "start": 904.78, "end": 917.48 }, { "input": "As I shift around this value of s, the shape of that product graph changes, and so does the corresponding area.", "translatedText": "כשאני מזיז את הערך של s, הצורה של גרף הפכפלה הזה משתנה, וכך גם השטח המתאים.", - "n_reviews": 0, + "n_reviews": 1, "start": 918.2, "end": 924.26 }, { "input": "Keep in mind, for all three graphs on the left, the input is x, and the number s is just a parameter.", "translatedText": "זכרו, עבור כל שלושת הגרפים משמאל, הקלט הוא x, והמספר s הוא רק פרמטר.", - "n_reviews": 0, + "n_reviews": 1, "start": 926.92, "end": 933.3 }, { "input": "But for the final graph on the right, for the resulting convolution itself, this number s is the input to that function, and the corresponding output is whatever the area of the lower left graph is, whatever the integral between this combination of f and g turns out to be.", "translatedText": "אבל עבור הגרף הסופי מימין, עבור הקונבולולוציה המתקבלת עצמה, המספר הזה s הוא הקלט לפונקציה הזו, והפלט המתאים הוא מה השטח של הגרף השמאלי התחתון, לא משנה מה התוצאה של האינטגרל בין השילוב הזה של f ו-g.", - "n_reviews": 0, + "n_reviews": 1, "start": 933.3, "end": 949.82 }, { "input": "Here, it might be helpful if we do a simple example, say where each of our two random variables follows a uniform distribution between the values negative one-half and positive one-half.", "translatedText": "כאן, זה עשוי להיות מועיל אם ניתן דוגמה פשוטה, נניח שבו כל אחד משני המשתנים האקראיים שלנו עוקב אחר התפלגות אחידה בין הערכים מינוס חצי ופלוס חצי.", - "n_reviews": 0, + "n_reviews": 1, "start": 953.28, "end": 963.76 }, { "input": "So what that looks like is that our density functions each have this kind of top hat shape, where the graph equals 1 for all inputs between negative one-half and positive one-half, and it equals 0 everywhere else.", "translatedText": "אז מה שזה נראה הוא שלכל פונקציות הצפיפות שלנו יש סוג כזה של צורת כובע, כאשר הגרף שווה ל-1 עבור כל הקלטים בין מינוס חצי לפלוס לחצי, והוא שווה 0 בכל מקום אחר.", - "n_reviews": 0, + "n_reviews": 1, "start": 964.46, "end": 976.46 }, @@ -849,28 +849,28 @@ { "input": "Well, let me show you how it looks inside our demo.", "translatedText": "ובכן, תנו לי להראות לכם איך זה נראה בתוך ההדגמה שלנו.", - "n_reviews": 0, + "n_reviews": 1, "start": 981.96, "end": 984.4 }, { "input": "In this case, the product between the two graphs has a really easy interpretation.", "translatedText": "במקרה זה, למכפלה בין שני הגרפים יש פרשנות ממש קלה.", - "n_reviews": 0, + "n_reviews": 1, "start": 985.22, "end": 989.18 }, { "input": "It is 1 wherever the graphs overlap with each other, but 0 everywhere else.", "translatedText": "היא 1 בכל מקום שבו הגרפים חופפים זה לזה, אבל 0 בכל מקום אחר.", - "n_reviews": 0, + "n_reviews": 1, "start": 989.18, "end": 994.06 }, { "input": "So if I slide this parameter s far enough to the left that our top graphs don't overlap at all, then the product graph is 0 everywhere, and that's a way of saying this is an impossible sum to achieve.", "translatedText": "לכן אם אני מזיז את הפרמטר הזה מספיק שמאלה כדי שהגרפים המובילים שלנו לא יחפפו בכלל, אז גרף המכפלה הוא 0 בכל מקום, וזו דרך לומר שזהו סכום בלתי אפשרי להשגה.", - "n_reviews": 0, + "n_reviews": 1, "start": 994.56, "end": 1006.54 }, @@ -884,14 +884,14 @@ { "input": "Each of the two variables can only get as low as negative one-half, so the sum could never get below negative 1.", "translatedText": "כל אחד משני המשתנים יכול להגיע רק למינוס חצי, כך שהסכום לעולם לא יכול לרדת מתחת למינוס 1.", - "n_reviews": 0, + "n_reviews": 1, "start": 1008.2, "end": 1014.34 }, { "input": "As I start to slide s to the right and the graphs overlap with each other, the area increases linearly until the graphs overlap entirely and it reaches a maximum.", "translatedText": "כשאני מתחיל להזיז את s ימינה והגרפים חופפים זה לזה, השטח גדל באופן ליניארי עד שהגרפים חופפים לחלוטין והוא מגיע למקסימום.", - "n_reviews": 0, + "n_reviews": 1, "start": 1014.34, "end": 1025.3 }, @@ -905,7 +905,7 @@ { "input": "And I imagine this actually feels somewhat familiar for anyone who's thought about a pair of dice, that is, unweighted dice.", "translatedText": "ואני מתאר לעצמי שזה מרגיש קצת מוכר עבור כל מי שחשב על זוג קוביות, כלומר קוביות מאוזנות.", - "n_reviews": 0, + "n_reviews": 1, "start": 1035.34, "end": 1041.3 }, @@ -919,42 +919,42 @@ { "input": "Probabilities increase until they max out at a 7, and then they decrease back down again.", "translatedText": "ההסתברויות עולות עד שהן מגיעות למקסימום ב-7, ואז הן יורדות שוב.", - "n_reviews": 0, + "n_reviews": 1, "start": 1050.04, "end": 1054.54 }, { "input": "Where this gets a lot more fun is if instead of asking for a sum of two uniformly distributed variables, I ask you what it looks like if we add up three different uniformly distributed variables.", "translatedText": "המקום שבו זה נעשה הרבה יותר כיף זה אם במקום לבקש סכום של שני משתנים בחלוקה אחידה, אני שואל אותכם איך זה נראה אם נחבר שלושה משתנים שונים בחלוקה אחידה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1056.26, "end": 1066.8 }, { "input": "At first you might say, I don't know, we need some new way to visualize combining three things instead of two.", "translatedText": "בהתחלה אפשר לומר, אני לא יודע, אנחנו צריכים איזו דרך חדשה להציג שילוב של שלושה דברים במקום שניים.", - "n_reviews": 0, + "n_reviews": 1, "start": 1066.8, "end": 1072.58 }, { "input": "But really what you can do here is think about the sum of the first two as their own variable, which we just figured out follows this wedge shape distribution, and then take a convolution between that and the top hat function.", "translatedText": "אבל בעצם מה שאתם יכולים לעשות כאן הוא לחשוב על הסכום של שני הראשונים כעל משתנה משלו, שזה עתה הבנו שהוא עוקב אחרי התפלגות צורת טריז, ואז לבצע קונבולולוציה בינו לבין פונקציית הכובע העליון.", - "n_reviews": 0, + "n_reviews": 1, "start": 1073.42, "end": 1084.6 }, { "input": "Pulling up the demo, here's what that would look like.", "translatedText": "כשאני מציג את ההדגמה, כך זה ייראה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1085.1, "end": 1087.36 }, { "input": "Once again, what makes the top hat function really nice is that multiplying by it sort of has the effect of filtering out values from the top graph.", "translatedText": "שוב, מה שהופך את פונקציית הכובע העליון למשביע רצון באמת הוא שהכפלה בה משפיעה על סינון ערכים מהגרף העליון.", - "n_reviews": 0, + "n_reviews": 1, "start": 1087.84, "end": 1096.16 }, @@ -968,7 +968,7 @@ { "input": "Again, as I slide this around left and right, and the area gets bigger and smaller, the result maxes out in the middle but tapers out to either side, except this time it does so more smoothly.", "translatedText": "שוב, כשאני מזיז את הגרף לשמאל ולימין, והאזור הולך וגדל, התוצאה מתרחבת באמצע אבל מתחדדת לשני הצדדים, אלא שהפעם היא עושה זאת בצורה חלקה יותר.", - "n_reviews": 0, + "n_reviews": 1, "start": 1102.62, "end": 1112.02 }, @@ -989,21 +989,21 @@ { "input": "One thing you might think to do is take this even further.", "translatedText": "דבר אחד שאתם עשויים לחשוב לעשות הוא לקחת את זה אפילו רחוק יותר.", - "n_reviews": 0, + "n_reviews": 1, "start": 1122.4, "end": 1125.0 }, { "input": "The way we started was combining two top hat functions and we got this wedge, then we replaced the first function with that wedge, and then when we took the convolution we got this smoother shape describing a sum of three distinct uniform variables, but we could just repeat.", "translatedText": "הדרך שבה התחלנו הייתה שילוב של שתי פונקציות של כובע העליון וקיבלנו את הטריז הזה, ואז החלפנו את הפונקציה הראשונה עם הטריז הזה, ואז כשלקחנו את הקונבולציה קיבלנו את הצורה החלקה יותר שמתארת סכום של שלושה משתנים אחידים ברורים, אבל יכולנו פשוט לחזור על התהליך.", - "n_reviews": 0, + "n_reviews": 1, "start": 1125.5, "end": 1140.5 }, { "input": "Swap that out for the top function, and then convolve that with the flat rectangular function, and whatever result we see should describe a sum of four uniformly distributed random variables.", "translatedText": "החליפו את זה בפונקציה העליונה, ואז תבצעו קובולוציה עם הפונקציה המלבנית השטוחה, וכל תוצאה שנראה צריכה לתאר סכום של ארבעה משתנים אקראיים בחלוקה אחידה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1141.22, "end": 1152.38 }, @@ -1017,7 +1017,7 @@ { "input": "As we repeat this process over and over, the shape looks more and more like a bell curve.", "translatedText": "כשאנחנו חוזרים על התהליך הזה שוב ושוב, הצורה נראית יותר ויותר כמו עקומת פעמון.", - "n_reviews": 0, + "n_reviews": 1, "start": 1157.82, "end": 1162.4 }, @@ -1052,21 +1052,21 @@ { "input": "That as you take repeated convolutions like this, representing bigger and bigger sums of a given random variable, then the distribution describing that sum, which might start off looking very different from a normal distribution, over time smooths out more and more until it gets arbitrarily close to a normal distribution.", "translatedText": "שכאשר אתם מבצעים קונבולוציות חוזרות ונשנות כמו זו, המייצגות סכומים גדולים יותר ויותר של משתנה אקראי נתון, אז ההתפלגות המתארת את הסכום הזה, שעשוי להראות בהתחלה שונה מאוד מהתפלגות נורמלית, עם הזמן נעשית יותר ויותר חלקה עד שהיא נהיית קרובה ככל שנרצה להתפלגות נורמלית.", - "n_reviews": 0, + "n_reviews": 1, "start": 1198.54, "end": 1217.42 }, { "input": "It's as if a bell curve is, in some loose manner of speaking, the smoothest possible distribution, an attractive fixed point in the space of all possible functions, as we apply this process of repeated smoothing through the convolution.", "translatedText": "זה כאילו עקומת פעמון היא, באופן שלשהו, ההתפלגות החלקה ביותר האפשרית, נקודה התכנסות קבועה במרחב של כל הפונקציות האפשריות, כאשר אנחנו מיישמים תהליך זה של החלקה חוזרת ונשנית דרך הקונבולולוציה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1218.08, "end": 1230.88 }, { "input": "Naturally you might wonder, why normal distributions?", "translatedText": "באופן טבעי אתם עשויים לתהות, מדוע התפלגויות נורמליות?", - "n_reviews": 0, + "n_reviews": 1, "start": 1235.4, "end": 1238.52 }, @@ -1080,49 +1080,49 @@ { "input": "That's a very good answer, and I think the most fun way to show the answer is in the light of the last visualization that we'll show for convolutions.", "translatedText": "זו תשובה טובה מאוד, ואני חושב שהדרך הכי כיפית להראות אותה היא לאור הדוגמה האחרונה שנציג עבור קונבולוציות.", - "n_reviews": 0, + "n_reviews": 1, "start": 1241.68, "end": 1249.16 }, { "input": "Remember how in the discrete case, the first of our two visualizations involved forming this kind of multiplication table, showing the probabilities for all possible outcomes, and adding up along the diagonals?", "translatedText": "זוכרים איך במקרה הבדיד, הראשונה מבין שתי הדוגמאות שלנו כללה יצירת לוח כפל מסוג זה, הצגת ההסתברויות לכל התוצאות האפשריות וחיבור לאורך האלכסונים?", - "n_reviews": 0, + "n_reviews": 1, "start": 1250.28, "end": 1261.42 }, { "input": "You've probably guessed it by now, but our last step is to generalize this to the continuous case.", "translatedText": "וודאי ניחשתם את זה כבר, אבל הצעד האחרון שלנו הוא להכליל את זה למקרה הרציף.", - "n_reviews": 0, + "n_reviews": 1, "start": 1262.96, "end": 1267.62 }, { "input": "And it is beautiful, but you have to be a little bit careful.", "translatedText": "יםוזה יפה, אבל אתם צריכים להיות קצת זהיר.", - "n_reviews": 0, + "n_reviews": 1, "start": 1268.56, "end": 1270.86 }, { "input": "Pulling up the same two functions we had before, f of x and g of y, what in this case would be analogous to the grid of possible pairs that we were looking at earlier?", "translatedText": "שימוש באותן שתי פונקציות שהיו לנו קודם לכן, f של x ו-g של y, מה במקרה זה יהיה אנלוגי לטבלה של זוגות אפשריים שבדקנו קודם לכן?", - "n_reviews": 0, + "n_reviews": 1, "start": 1271.98, "end": 1281.46 }, { "input": "Well in this case, each of the variables can take on any real number, so we want to think about all possible pairs of real numbers, and the xy-plane comes to mind.", "translatedText": "ובכן, במקרה זה, כל אחד מהמשתנים יכול לקבל ערך של כל מספר ממשי, אז אנחנו רוצים לחשוב על כל הזוגות האפשריים של מספרים ממשיים, ומישור ה-xy עולה בראשנו.", - "n_reviews": 0, + "n_reviews": 1, "start": 1282.48, "end": 1291.5 }, { "input": "Every point corresponds to a possible outcome when we sample from both distributions.", "translatedText": "כל נקודה תואמת לתוצאה אפשרית כאשר אנחנו דוגמים משתי ההתפלגויות.", - "n_reviews": 0, + "n_reviews": 1, "start": 1292.64, "end": 1297.04 }, @@ -1143,7 +1143,7 @@ { "input": "Notice in this example how if we look at it from one angle, where we see the x values changing, it has the shape of our first graph, but if we look at it from another angle, emphasizing the change in the y direction, it takes on the shape of our second graph.", "translatedText": "שימו לב בדוגמה זו כיצד אם אנחנו מסתכלים עליו מזווית אחת, שבה אנו רואים את ערכי ה-x משתנים, יש לו צורה של הגרף הראשון שלנו, אך אם נסתכל עליו מזווית אחרת, תוך שימת דגש על השינוי בכיוון y, נקבל את הצורה של הגרף השני שלנו.", - "n_reviews": 0, + "n_reviews": 1, "start": 1320.56, "end": 1333.84 }, @@ -1157,28 +1157,28 @@ { "input": "It shows all the probability densities for every possible outcome.", "translatedText": "הוא מראה את צפיפות ההסתברות לכל תוצאה אפשרית.", - "n_reviews": 0, + "n_reviews": 1, "start": 1337.8, "end": 1341.12 }, { "input": "And if you want to limit your view just to those outcomes where x plus y is constrained to be a given sum, what that looks like is limiting our view to a diagonal slice, specifically a slice over the line x plus y equals some constant.", "translatedText": "ואם אתם רוצים להגביל את התצוגה שלכם רק לאותן תוצאות שבהן x פלוס y מוגבל לסכום נתון, מה שנראה הוא הגבלת המבט שלנו לפרוסה אלכסונית, ספציפית פרוסה מעל הקו x פלוס y שווה לאיזשהו קבוע.", - "n_reviews": 0, + "n_reviews": 1, "start": 1341.9, "end": 1355.4 }, { "input": "All of the possible probability densities for the outcome subject to this constraint look sort of like a slice under this graph, and as we change around what specific sum we're constraining to, it shifts around which specific diagonal slice we're looking at.", "translatedText": "כל צפיפויות ההסתברות האפשריות לתוצאה הכפופה לאילוץ הזה נראות כמו פרוסה מתחת לגרף הזה, וכאשר אנחנו משנים את הסכום המגביל, הוא משתנה סביב איזה פרוסה אלכסונית ספציפית שבה אנחנו מסתכלים.", - "n_reviews": 0, + "n_reviews": 1, "start": 1355.98, "end": 1370.48 }, { "input": "Now what you might predict is that the way to combine all of the probability densities along one of these slices, the way to integrate them together, can be interpreted as the area under this curve, which is a slice of the surface.", "translatedText": "עכשיו מה שאתם יכולים לחזות הוא שהדרך לשלב את כל צפיפויות ההסתברות לאורך אחת הפרוסות האלה, הדרך לשלב אותן יחד, יכולה להתפרש כשטח מתחת לעקומה הזו, שהיא פרוסה של פני השטח.", - "n_reviews": 0, + "n_reviews": 1, "start": 1373.94, "end": 1387.14 }, @@ -1192,21 +1192,21 @@ { "input": "There's a subtle detail regarding a factor of the square root of two that we need to talk about, but up to a constant factor, the areas of these slices give us the values of the convolution.", "translatedText": "יש פרט עדין לגבי גורם מהשורש של 2 שעלינו לדבר עליו, אבל עד גורם קבוע, השטחים של הפרוסות האלה נותנים לנו את ערכי הקונבולציה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1389.74, "end": 1400.68 }, { "input": "In fact, all of these slices that we're looking at are precisely the same as the product graph that we were looking at earlier.", "translatedText": "למעשה, כל הפרוסות האלה שאנחנו מסתכלים עליהן זהות בדיוק לגרף המכפלה שהסתכלנו עליו קודם לכן.", - "n_reviews": 0, + "n_reviews": 1, "start": 1401.5, "end": 1408.24 }, { "input": "Here, to emphasize this point, let me pull up both visualizations side by side, and I'm going to slowly decrease the value of s, which on the left means we're looking at different slices, and on the right means we're shifting around the modified graph of g.", "translatedText": "הנה, כדי להדגיש את הנקודה הזו, הרשו לי להעלות את שתי ההדמיות זו לצד זו, ואני הולך להוריד לאט לאט את הערך של s, שמצד שמאל אומר שאנחנו מסתכלים על פרוסות שונות, ומצד ימין אומר שאנחנו מזיזים את הגרף המעודכן של g.", - "n_reviews": 0, + "n_reviews": 1, "start": 1409.44, "end": 1424.3 }, @@ -1227,35 +1227,35 @@ { "input": "They are two distinct ways to visualize the same thing.", "translatedText": "הן שתי דרכים שונות לתאר את אותו הדבר.", - "n_reviews": 0, + "n_reviews": 1, "start": 1439.84, "end": 1442.6 }, { "input": "It sounds like a lot when we put it into words, but what we're looking at are all the possible products between outputs of the functions corresponding to pairs of inputs that have a given sum.", "translatedText": "זה נשמע הרבה כשאנחנו מנסחים את זה במילים, אבל מה שאנחנו מסתכלים עליו הם כל הפכפלות האפשריות בין פלטים של הפונקציות המתאימות לזוגות של קלטים שיש להם סכום נתון.", - "n_reviews": 0, + "n_reviews": 1, "start": 1443.04, "end": 1453.94 }, { "input": "Again, it's kind of a mouthful, but I think you see what I'm saying, and we now have two different ways to see it.", "translatedText": "שוב, זה סוג של ביטוי מסורבל, אבל אני חושב שאתם מבינים את מה שאני אומר, ועכשיו יש לנו שתי דרכים שונות לראות את זה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1454.76, "end": 1460.45 }, { "input": "The nice thing about the diagonal slice visualization is that it makes it much more clear that it's a symmetric operation.", "translatedText": "הדבר היפה בהדמיית הפרוסות האלכסוניות הוא שהיא מבהירה שמדובר בפעולה סימטרית.", - "n_reviews": 0, + "n_reviews": 1, "start": 1471.0, "end": 1477.1 }, { "input": "It's much more obvious that f convolved with g is the same thing as g convolved with f.", "translatedText": "זה הרבה יותר ברור שקונבולוציה של-f עם g זה אותו דבר כמו קונבולוציה של g עם f.", - "n_reviews": 0, + "n_reviews": 1, "start": 1477.1, "end": 1483.02 }, @@ -1269,14 +1269,14 @@ { "input": "They've actually been stretched out by a factor of the square root of 2.", "translatedText": "הן למעשה נמתחו על ידי גורם של השורש הריבועי של 2.", - "n_reviews": 0, + "n_reviews": 1, "start": 1487.9, "end": 1491.16 }, { "input": "The basic reason is that if you imagine taking some small step along one of these lines where x plus y equals a constant, then the change in your x value, the delta x here, is not the same thing as the length of that step.", "translatedText": "הסיבה הבסיסית היא שאם אתם מדמיינים צעד קטן לאורך אחד מהקווים האלה שבו x פלוס y שווה לקבוע, אז השינוי בערך ה-x שלכם, הדלתא x כאן, אינו זהה לאורך הצעד הזה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1491.88, "end": 1505.2 }, @@ -1290,7 +1290,7 @@ { "input": "I will leave a note up on the screen for the calculus enthusiasts among you who want to pause and ponder, but the upshot is very simply that the outputs of our convolution are technically not quite the areas of these diagonal slices.", "translatedText": "אשאיר הערה על המסך לחובבי החשבון שביניכם שרוצים לעצור ולהרהר, אבל התוצאה היא פשוטה מאוד שהפלטים של הקונבולוציה שלנו הם מבחינה טכנית לא בדיוק האזורים של הפרוסות האלכסוניות האלה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1509.66, "end": 1521.1 }, @@ -1304,7 +1304,7 @@ { "input": "Stepping back from all of this for a moment, I just think this is so beautiful.", "translatedText": "נחזור אחורה מכל זה לרגע, אני פשוט חושב שזה כל כך יפה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1526.14, "end": 1529.54 }, @@ -1332,14 +1332,14 @@ { "input": "For example, I still have not answered the opening quiz question about adding two normally distributed random variables.", "translatedText": "לדוגמה, עדיין לא עניתי על שאלת החידון הפותח לגבי הוספת שני משתנים אקראיים עם התפלגות נורמלית.", - "n_reviews": 0, + "n_reviews": 1, "start": 1553.04, "end": 1559.28 }, { "input": "Well, the ordinary way that you would approach this kind of question, if it showed up on a homework or something like that, is that you would plug in the formula for a normal distribution into the definition of a convolution, the integral that we've been describing here.", "translatedText": "ובכן, הדרך הרגילה שבה הייתם ניגשים לשאלה מהסוג הזה, אם היא מופיעה בשיעורי בית או משהו כזה, היא שתשתמשו בנוסחה להתפלגות נורמלית להגדרה של קונבולציה, האינטגרל שתארנו כאן.", - "n_reviews": 0, + "n_reviews": 1, "start": 1559.88, "end": 1573.96 }, @@ -1353,14 +1353,14 @@ { "input": "In this case, the integral is not prohibitively difficult, there are analytical methods, but for this example, I want to show you a more fun method where the visualizations, specifically the diagonal slices, will play a much more front and center role in the proof itself.", "translatedText": "במקרה זה, האינטגרל לא קשה במיוחד, ישנן שיטות אנליטיות, אבל עבור הדוגמה הזו, אני רוצה להראות לכם שיטה מהנה יותר שבה ההדמיות, במיוחד הפרוסות האלכסוניות, ישחקו תפקיד הרבה יותר קדמי ומרכזי בהוכחה עצמה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1581.92, "end": 1597.04 }, { "input": "I think many of you may actually enjoy taking a moment to predict how this will look for yourself.", "translatedText": "אני חושב שרבים מכם עשויים להנות באמת אם תקחו רגע כדי לשער איך זה ייראה.", - "n_reviews": 0, + "n_reviews": 1, "start": 1597.9, "end": 1602.16 }, @@ -1374,15 +1374,15 @@ { "input": "And it is for sure easiest if you start with a case where both distributions have the same standard deviation.", "translatedText": "וזה ללא ספק הכי קל אם אתם מתחילים עם מקרה שבו לשתי ההתפלגויות יש אותה סטיית תקן.", - "n_reviews": 0, + "n_reviews": 1, "start": 1612.48, "end": 1617.78 }, { "input": "Whenever you want the details, and to see how the answer fits into the central limit theorem, come join me in the next video.", "translatedText": "כאשר תרצו את הפרטים, וכדי לראות איך התשובה משתלבת במשפט הגבול המרכזי, הצטרפו אליי בסרטון הבא.", - "n_reviews": 0, + "n_reviews": 1, "start": 1619.08, "end": 1624.98 } -] +] \ No newline at end of file diff --git a/2023/moser-reboot/spanish/sentence_translations.json b/2023/moser-reboot/spanish/sentence_translations.json index 0505b5450..7dff19ddd 100644 --- a/2023/moser-reboot/spanish/sentence_translations.json +++ b/2023/moser-reboot/spanish/sentence_translations.json @@ -4,7 +4,7 @@ "translatedText": "Esta es una cuento con moraleja muy famoso en matemáticas, conocida como el problema del círculo de Moser.", "model": "google_nmt", "n_reviews": 1, - "start": 0, + "start": 0.0, "end": 4.26 }, { @@ -196,7 +196,7 @@ "translatedText": "Para calcularlo, la forma en la que a menudo se piensa es que tienes n opciones para escoger cuál sera tu primer elemento, y luego tienes n menos una opciones para escoger el segundo elemento. Pero, si simplemente las multiplicas estarias contando de más, ya que para una pareja determinado hay dos formas distintas de obtener esa combinación.", "model": "google_nmt", "n_reviews": 1, - "start": 205, + "start": 205.0, "end": 222.14 }, { @@ -324,7 +324,7 @@ "translatedText": "Deberías pensar en escoger n opciones para el primer elemento, lo que le dejaría con n menos una opciones para el siguiente elemento, luego n menos dos opciones para el tercer elemento y n menos tres opciones para el último elemento.", "model": "google_nmt", "n_reviews": 1, - "start": 311, + "start": 311.0, "end": 322.94 }, { @@ -428,7 +428,7 @@ "translatedText": "Prueba esto por ti mismo.", "model": "google_nmt", "n_reviews": 1, - "start": 427, + "start": 427.0, "end": 427.78 }, {