#python #machine-translation #trax
#python #машинный перевод #trax
Вопрос:
Моя цель — понять вводный пример по трансформаторам в Trax, который можно найти по адресу https://trax-ml.readthedocs.io/en/latest/notebooks/trax_intro.html :
import trax
# Create a Transformer model.
# Pre-trained model config in gs://trax-ml/models/translation/ende_wmt32k.gin
model = trax.models.Transformer(
input_vocab_size=33300,
d_model=512, d_ff=2048,
n_heads=8, n_encoder_layers=6, n_decoder_layers=6,
max_len=2048, mode='predict')
# Initialize using pre-trained weights.
model.init_from_file('gs://trax-ml/models/translation/ende_wmt32k.pkl.gz',
weights_only=True)
# Tokenize a sentence.
sentence = 'It is nice to learn new things today!'
tokenized = list(trax.data.tokenize(iter([sentence]), # Operates on streams.
vocab_dir='gs://trax-ml/vocabs/',
vocab_file='ende_32k.subword'))[0]
# Decode from the Transformer.
tokenized = tokenized[None, :] # Add batch dimension.
tokenized_translation = trax.supervised.decoding.autoregressive_sample(
model, tokenized, temperature=0.0) # Higher temperature: more diverse results.
# De-tokenize,
tokenized_translation = tokenized_translation[0][:-1] # Remove batch and EOS.
translation = trax.data.detokenize(tokenized_translation,
vocab_dir='gs://trax-ml/vocabs/',
vocab_file='ende_32k.subword')
print(translation)
Пример работает довольно хорошо. Однако, когда я пытаюсь перевести другой пример с инициализированной моделью, например
sentence = 'I would like to try another example.'
tokenized = list(trax.data.tokenize(iter([sentence]),
vocab_dir='gs://trax-ml/vocabs/',
vocab_file='ende_32k.subword'))[0]
tokenized = tokenized[None, :]
tokenized_translation = trax.supervised.decoding.autoregressive_sample(
model, tokenized, temperature=0.0)
tokenized_translation = tokenized_translation[0][:-1]
translation = trax.data.detokenize(tokenized_translation,
vocab_dir='gs://trax-ml/vocabs/',
vocab_file='ende_32k.subword')
print(translation)
Я получаю выходные данные !
на моем локальном компьютере, а также в Google Colab. То же самое происходит с другими примерами.
Когда я создаю и инициализирую новую модель, все работает нормально.
Это ошибка? Если нет, то что здесь происходит и как я могу избежать / исправить такое поведение?
Токенизация и детокенизация, похоже, работают хорошо, я это отладил. Кажется, что все идет не так / неожиданно в trax.supervised.decoding.autoregressive_sample
.
Ответ №1:
Я сам это выяснил … нужно сбросить параметры модели state
. Итак, следующий код работает для меня:
def translate(model, sentence, vocab_dir, vocab_file):
empty_state = model.state # save empty state
tokenized_sentence = next(trax.data.tokenize(iter([sentence]), vocab_dir=vocab_dir,
vocab_file=vocab_file))
tokenized_translation = trax.supervised.decoding.autoregressive_sample(
model, tokenized_sentence[None, :], temperature=0.0)[0][:-1]
translation = trax.data.detokenize(tokenized_translation, vocab_dir=vocab_dir,
vocab_file=vocab_file)
model.state = empty_state # reset state
return translation
# Create a Transformer model.
# Pre-trained model config in gs://trax-ml/models/translation/ende_wmt32k.gin
model = trax.models.Transformer(input_vocab_size=33300, d_model=512, d_ff=2048, n_heads=8,
n_encoder_layers=6, n_decoder_layers=6, max_len=2048,
mode='predict')
# Initialize using pre-trained weights.
model.init_from_file('gs://trax-ml/models/translation/ende_wmt32k.pkl.gz',
weights_only=True)
print(translate(model, 'It is nice to learn new things today!',
vocab_dir='gs://trax-ml/vocabs/', vocab_file='ende_32k.subword'))
print(translate(model, 'I would like to try another example.',
vocab_dir='gs://trax-ml/vocabs/', vocab_file='ende_32k.subword'))
Комментарии:
1. Вы пробовали использовать тот же код для перевода с немецкого на английский? Как это работает? Я не могу найти какой-либо предварительно подготовленный вес трансформатора для этого.
2. Нет, у меня нет. И да, у вас должен быть предварительно обученный трансформатор. Я изучил этот пример, чтобы получить представление о transformers и Trax, меня на самом деле не интересовал переводчик en-de. Вы пытались заменить URL
'gs://trax-ml/models/translation/ende_wmt32k.pkl.gz'
на'gs://trax-ml/models/translation/deen_wmt32k.pkl.gz'
? Это было бы моим наивным предположением…3. Я пробовал это, но он не распознает эту модель, я думаю, что это даже не настоящая модель. Я попробую что-нибудь еще. Но спасибо, что заглянули. Вы знаете, где я могу поискать другие предварительно обученные модели переводчиков в trax?
4. Нет, но вы можете спросить в сообществе Trax на Gitter ( gitter.im/trax-ml/community ) (или прочитайте список невыполненных работ).