【NLP】看不懂bert没关系,用起来so easy!
生活随笔
收集整理的這篇文章主要介紹了
【NLP】看不懂bert没关系,用起来so easy!
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
作者:十方
bert的大名如雷貫耳,無論在比賽,還是實際上的應用早已普及開來。想到十方第一次跑bert模型用的框架還是paddlepaddle,那時候用自己的訓練集跑bert還是比較痛苦的,不僅要看很多配置文件,預處理代碼,甚至報錯了都不知道怎么回事,當時十方用的是bert雙塔做文本向量的語義召回。如今tf都已經更新到了2.4了,tensorflow-hub的出現更是降低了使用預訓練模型的門檻,接下來帶大家看下,如何花十分鐘時間快速構建bert雙塔召回模型。
tensorflow hub
打開tensorflow官網,找到tensorflow-hub點進去,我們就能看到各種預訓練好的模型了,找到一個預訓練好的模型(如下圖),下載下來,如介紹所說,這是個12層,768維,12頭的模型。
在往下看,我們看到有配套的預處理工具:
同樣下載下來,然后我們就可以構建bert雙塔了。
Bert雙塔
import os import shutil import pickle import tensorflow as tf import tensorflow_hub as hub import tensorflow_text as text from official.nlp import optimization from tensorflow.keras import * from tqdm import tqdm import numpy as np import pandas as pd import json import re import random# 這里讀你自己的文本數據集 with open('./data/train_data.pickle', 'rb') as f:train_data = pickle.load(f)#?讀數據用的generater def train_generator():np.random.shuffle(train_data)for?i?in?range(len(train_data)):yield?train_data[i][0],?train_data[i][1]#?訓練數據 dataset ds_tr = tf.data.Dataset.from_generator(train_generator, output_types=(tf.string, tf.string))#?bert?雙塔?dim_size是維度?model_name是下載模型的路徑 def?get_model(dim_size,?model_name):#?下載的預處理工具路徑preprocessor = hub.load('./bert_en_uncased_preprocess/3')# 左邊塔的文本text_source = tf.keras.layers.Input(shape=(), dtype=tf.string)# 右邊塔的文本text_target = tf.keras.layers.Input(shape=(), dtype=tf.string)tokenize = hub.KerasLayer(preprocessor.tokenize)tokenized_inputs_source = [tokenize(text_source)]tokenized_inputs_target = [tokenize(text_target)]seq_length?=?512??#?這里指定你序列文本的最大長度bert_pack_inputs = hub.KerasLayer(preprocessor.bert_pack_inputs,arguments=dict(seq_length=seq_length))encoder_inputs_source = bert_pack_inputs(tokenized_inputs_source)encoder_inputs_target = bert_pack_inputs(tokenized_inputs_target)#?加載預訓練參數????bert_model = hub.KerasLayer(model_name)bert_encoder_source,?bert_encoder_target?=?bert_model(encoder_inputs_source),?bert_model(encoder_inputs_target)#?這里想嘗試in-batch?loss#?也可以直接對?bert_encoder_source['pooled_output'],?bert_encoder_target['pooled_output']?做點積操作matrix_logit = tf.linalg.matmul(bert_encoder_source['pooled_output'], bert_encoder_target['pooled_output'], transpose_a=False, transpose_b=True)matrix_logit = matrix_logit / tf.sqrt(dim_size)model = models.Model(inputs = [text_source, text_target], outputs = [bert_encoder_source['pooled_output'], bert_encoder_target['pooled_output'], matrix_logit])return modelbert_double_tower = get_model(128.0, './small_bert_bert_en_uncased_L-2_H-128_A-2_1/3') bert_double_tower.summary()我們看到bert雙塔模型已經構建完成:
然后定義loss,就可以訓練啦!
總結
以上是生活随笔為你收集整理的【NLP】看不懂bert没关系,用起来so easy!的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 中关村win11 32位官方原版iso文
- 下一篇: 手机腾讯视频软件如何开启护眼功能