Skip to content

Commit

Permalink
Edit "gpt (russian)" by salavey13 (#469)
Browse files Browse the repository at this point in the history
* Edit "gpt (russian)" by salavey13

* Edit "gpt (russian)" by salavey13

* Edit "gpt (russian)" by salavey13
  • Loading branch information
3b1b authored Apr 8, 2024
1 parent 54aaba2 commit e50f2ed
Show file tree
Hide file tree
Showing 3 changed files with 21 additions and 21 deletions.
2 changes: 1 addition & 1 deletion 2024/gpt/russian/description.json
Original file line number Diff line number Diff line change
Expand Up @@ -107,4 +107,4 @@
"model": "DeepL",
"n_reviews": 0
}
]
]
38 changes: 19 additions & 19 deletions 2024/gpt/russian/sentence_translations.json
Original file line number Diff line number Diff line change
Expand Up @@ -4,7 +4,7 @@
"translatedText": "Инициалы GPT означают Generative Pretrained Transformer.",
"model": "DeepL",
"n_reviews": 0,
"start": 0.0,
"start": 0,
"end": 4.56
},
{
Expand All @@ -25,49 +25,49 @@
},
{
"input": "But the last word, that's the real key piece.",
"translatedText": "Но последнее слово - это действительно ключевой момент.",
"translatedText": "Но ключевое слово здесь - последнее.",
"model": "DeepL",
"n_reviews": 0,
"n_reviews": 1,
"start": 20.72,
"end": 22.9
},
{
"input": "A transformer is a specific kind of neural network, a machine learning model, and it's the core invention underlying the current boom in AI.",
"translatedText": "Трансформатор - это особый вид нейронной сети, модель машинного обучения, и это основное изобретение, лежащее в основе нынешнего бума в области ИИ.",
"translatedText": "Трансформер - это особый вид нейронной сети, модель машинного обучения, и это основное изобретение, лежащее в основе нынешнего бума в области ИИ.",
"model": "DeepL",
"n_reviews": 0,
"n_reviews": 1,
"start": 23.38,
"end": 31.0
"end": 31
},
{
"input": "What I want to do with this video and the following chapters is go through a visually-driven explanation for what actually happens inside a transformer.",
"translatedText": "В этом видео и последующих главах я хочу наглядно объяснить, что на самом деле происходит внутри трансформатора.",
"translatedText": "В этом видео и последующих главах я хочу наглядно объяснить, что на самом деле происходит внутри трансформера.",
"model": "DeepL",
"n_reviews": 0,
"n_reviews": 1,
"start": 31.74,
"end": 39.12
},
{
"input": "We're going to follow the data that flows through it and go step by step.",
"translatedText": "Мы будем следить за данными, которые через него проходят, и двигаться шаг за шагом.",
"translatedText": "Мы пошогово проследим за данными, которые через него проходят.",
"model": "DeepL",
"n_reviews": 0,
"n_reviews": 1,
"start": 39.7,
"end": 42.82
},
{
"input": "There are many different kinds of models that you can build using transformers.",
"translatedText": "Существует множество различных видов моделей, которые ты можешь построить, используя трансформаторы.",
"translatedText": "Существует множество различных видов моделей, которые можно построить, используя трансформеры.",
"model": "DeepL",
"n_reviews": 0,
"n_reviews": 1,
"start": 43.44,
"end": 47.38
},
{
"input": "Some models take in audio and produce a transcript.",
"translatedText": "Некоторые модели принимают аудиозапись и выдают транскрипт.",
"model": "DeepL",
"n_reviews": 0,
"n_reviews": 1,
"start": 47.8,
"end": 50.8
},
Expand All @@ -92,7 +92,7 @@
"translatedText": "Даже если я не могу заставить его понять, каким должно быть существо из пирога, я все равно потрясен тем, что такое вообще возможно.",
"model": "DeepL",
"n_reviews": 0,
"start": 66.0,
"start": 66,
"end": 73.1
},
{
Expand Down Expand Up @@ -141,7 +141,7 @@
"model": "DeepL",
"n_reviews": 0,
"start": 130.1,
"end": 133.0
"end": 133
},
{
"input": "In this animation, for example, I'm running GPT-2 on my laptop and having it repeatedly predict and sample the next chunk of text to generate a story based on the seed text.",
Expand Down Expand Up @@ -293,7 +293,7 @@
"model": "DeepL",
"n_reviews": 0,
"start": 283.06,
"end": 294.0
"end": 294
},
{
"input": "All of the operations in both of these blocks look like a giant pile of matrix multiplications, and our primary job is going to be to understand how to read the underlying matrices.",
Expand Down Expand Up @@ -493,7 +493,7 @@
"model": "DeepL",
"n_reviews": 0,
"start": 586.74,
"end": 596.0
"end": 596
},
{
"input": "You often think of that input data as being progressively transformed into many distinct layers, where again, each layer is always structured as some kind of array of real numbers, until you get to a final layer which you consider the output.",
Expand Down Expand Up @@ -764,7 +764,7 @@
"translatedText": "По крайней мере, в некотором роде.",
"model": "DeepL",
"n_reviews": 0,
"start": 927.0,
"start": 927,
"end": 928.2
},
{
Expand Down Expand Up @@ -1311,4 +1311,4 @@
"start": 1607.81,
"end": 1612.41
}
]
]
2 changes: 1 addition & 1 deletion 2024/gpt/russian/title.json
Original file line number Diff line number Diff line change
Expand Up @@ -3,4 +3,4 @@
"translatedText": "Но что такое GPT? Визуальное введение в трансформеры | Глубокое обучение, глава 5",
"model": "DeepL",
"n_reviews": 0
}
}

0 comments on commit e50f2ed

Please sign in to comment.