tokenizer(tokenizer.texts_to_sequences) 百科知识 2023-05-29 10:02:29 3 初代BEiT,惜败MAE两项研究都是用“先掩码再预测”来做预训练任务,最大的区别在于BEiT会把视觉token离散化、最后模型预测的是token,而MAE则是直接预测原始像素... 阅读全文