В чем разница между трансформаторным кодером и Трансформаторным декодером и Трансформаторным кодером-декодером?

#nlp #bert-language-model #gpt

Вопрос:

Я знаю, что GPT использует трансформаторный декодер, BERT использует трансформаторный кодер, а T5 использует трансформаторный кодер-декодер. Но может ли кто-нибудь помочь мне понять, почему GPT использует только декодер, BERT использует только кодер, а T5 использует и то, и другое?

Что вы можете сделать только с кодером без декодера, декодером без кодера и одновременно с кодером и декодером?

Я новичок в НЛП, так что любая помощь была бы приятна 😀 Спасибо!