diff --git a/2024/gpt/french/description.json b/2024/gpt/french/description.json index 4153640b6..b71c28faa 100644 --- a/2024/gpt/french/description.json +++ b/2024/gpt/french/description.json @@ -107,4 +107,4 @@ "model": "DeepL", "n_reviews": 0 } -] \ No newline at end of file +] diff --git a/2024/gpt/french/sentence_translations.json b/2024/gpt/french/sentence_translations.json index 43418e777..ce775b546 100644 --- a/2024/gpt/french/sentence_translations.json +++ b/2024/gpt/french/sentence_translations.json @@ -4,7 +4,7 @@ "translatedText": "Les initiales GPT signifient Generative Pretrained Transformer (transformateur génératif préformé).", "model": "DeepL", "n_reviews": 0, - "start": 0.0, + "start": 0, "end": 4.56 }, { @@ -17,9 +17,9 @@ }, { "input": "Pretrained refers to how the model went through a process of learning from a massive amount of data, and the prefix insinuates that there's more room to fine-tune it on specific tasks with additional training.", - "translatedText": "Le préfixe indique que le modèle a été soumis à un processus d'apprentissage à partir d'une quantité massive de données, et le préfixe insinue qu'il y a plus de place pour l'affiner sur des tâches spécifiques avec un entraînement supplémentaire.", + "translatedText": "Le préfixe indique que le modèle a été soumis à un processus d'apprentissage à partir d'une quantité massive de données, et ce préfixe insinue qu'il y a plus de place pour l'affiner sur des tâches spécifiques avec un entraînement supplémentaire.", "model": "DeepL", - "n_reviews": 0, + "n_reviews": 1, "start": 9.8, "end": 20.04 }, @@ -37,7 +37,7 @@ "model": "DeepL", "n_reviews": 0, "start": 23.38, - "end": 31.0 + "end": 31 }, { "input": "What I want to do with this video and the following chapters is go through a visually-driven explanation for what actually happens inside a transformer.", @@ -89,10 +89,10 @@ }, { "input": "Even if I can't quite get it to understand what a pie creature is supposed to be, I'm still blown away that this kind of thing is even remotely possible.", - "translatedText": "Même si je n'arrive pas à lui faire comprendre ce qu'est censée être une créature de tarte, je suis toujours époustouflée de voir que ce genre de chose est possible, même de loin.", + "translatedText": "Même si je n'arrive pas à lui faire comprendre ce qu'est censée être la créature Pi, je suis toujours époustouflée de voir que ce genre de chose est possible.", "model": "DeepL", - "n_reviews": 0, - "start": 66.0, + "n_reviews": 1, + "start": 66, "end": 73.1 }, { @@ -141,7 +141,7 @@ "model": "DeepL", "n_reviews": 0, "start": 130.1, - "end": 133.0 + "end": 133 }, { "input": "In this animation, for example, I'm running GPT-2 on my laptop and having it repeatedly predict and sample the next chunk of text to generate a story based on the seed text.", @@ -281,9 +281,9 @@ }, { "input": "And here the vectors don't talk to each other, they all go through the same operation in parallel.", - "translatedText": "Et ici, les vecteurs ne se parlent pas, ils subissent tous la même opération en parallèle.", + "translatedText": "Et ici, les vecteurs ne communiquent pas entre eux, ils subissent tous la même opération en parallèle.", "model": "DeepL", - "n_reviews": 0, + "n_reviews": 1, "start": 278.58, "end": 282.66 }, @@ -293,7 +293,7 @@ "model": "DeepL", "n_reviews": 0, "start": 283.06, - "end": 294.0 + "end": 294 }, { "input": "All of the operations in both of these blocks look like a giant pile of matrix multiplications, and our primary job is going to be to understand how to read the underlying matrices.", @@ -305,9 +305,9 @@ }, { "input": "I'm glossing over some details about some normalization steps that happen in between, but this is after all a high-level preview.", - "translatedText": "Je passe sous silence certains détails concernant les étapes de normalisation qui se déroulent entre les deux, mais il s'agit après tout d'un aperçu de haut niveau.", + "translatedText": "J'omets certains détails concernant les étapes de normalisation qui se déroulent entre les deux, mais il s'agit après tout d'un aperçu de haut niveau.", "model": "DeepL", - "n_reviews": 0, + "n_reviews": 1, "start": 306.98, "end": 312.98 }, @@ -369,9 +369,9 @@ }, { "input": "If you're comfortable with that background knowledge and a little impatient, you could feel free to skip to the next chapter, which is going to focus on the attention blocks, generally considered the heart of the transformer.", - "translatedText": "Si tu te sens à l'aise avec ces connaissances de base et que tu es un peu impatient, tu peux te sentir libre de passer au chapitre suivant, qui va se concentrer sur les blocs d'attention, généralement considérés comme le cœur du transformateur.", + "translatedText": "Si tu te sens à l'aise avec ces connaissances de base et que tu es un peu impatient, sens-toi libre de passer au chapitre suivant, qui va se concentrer sur les blocs d'attention, généralement considérés comme le cœur du transformateur.", "model": "DeepL", - "n_reviews": 0, + "n_reviews": 1, "start": 413.06, "end": 422.78 }, @@ -433,9 +433,9 @@ }, { "input": "Needless to say, deep learning models get much more complicated.", - "translatedText": "Inutile de dire que les modèles d'apprentissage profond deviennent beaucoup plus compliqués.", + "translatedText": "Inutile de dire que les modèles d'apprentissage profond se complexifient énormément.", "model": "DeepL", - "n_reviews": 0, + "n_reviews": 1, "start": 528.88, "end": 532.1 }, @@ -493,7 +493,7 @@ "model": "DeepL", "n_reviews": 0, "start": 586.74, - "end": 596.0 + "end": 596 }, { "input": "You often think of that input data as being progressively transformed into many distinct layers, where again, each layer is always structured as some kind of array of real numbers, until you get to a final layer which you consider the output.", @@ -764,7 +764,7 @@ "translatedText": "Du moins, en quelque sorte.", "model": "DeepL", "n_reviews": 0, - "start": 927.0, + "start": 927, "end": 928.2 }, { @@ -1311,4 +1311,4 @@ "start": 1607.81, "end": 1612.41 } -] \ No newline at end of file +] diff --git a/2024/gpt/french/title.json b/2024/gpt/french/title.json index b7fbf5e0a..1fdc7bc88 100644 --- a/2024/gpt/french/title.json +++ b/2024/gpt/french/title.json @@ -3,4 +3,4 @@ "translatedText": "Mais qu'est-ce qu'un GPT ? Introduction visuelle à Transformers | Deep learning, chapitre 5", "model": "DeepL", "n_reviews": 0 -} \ No newline at end of file +}