3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

LIC 2022 视频语义理解基线(快速启动版)

發(fā)布時(shí)間:2023/12/29 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 LIC 2022 视频语义理解基线(快速启动版) 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

轉(zhuǎn)自AI Studio,原文鏈接:

LIC 2022 視頻語義理解基線(快速啟動(dòng)版) - 飛槳AI Studio

LIC2022視頻語義理解基線

??該版本為快速啟動(dòng)版,訓(xùn)練集取比賽提供的訓(xùn)練集的子集,目的是減少在線項(xiàng)目加載等待時(shí)間,供選手快速跑通流程,實(shí)現(xiàn)一鍵訓(xùn)練+預(yù)測,生成可提交并有分?jǐn)?shù)的結(jié)果文件。

該基線分?jǐn)?shù)比全量數(shù)據(jù)版基線(🚩鏈接稍后給出)稍低(e.g., 0.33 vs 0.38)。

??請(qǐng)選擇啟動(dòng)GPU環(huán)境(CPU環(huán)境將無法進(jìn)行模型的訓(xùn)練和預(yù)測,且從CPU到GPU環(huán)境的轉(zhuǎn)換將非常慢)。

??每次打開環(huán)境,需要約15分鐘文件的加載、同步時(shí)間,請(qǐng)耐心等候加載完畢。

😃 每天AI Studio 免費(fèi)提供8個(gè)算力點(diǎn),最多可使用16小時(shí)GPU。除此之外,選手還可以選擇申請(qǐng)AI Studio提供的100小時(shí)免費(fèi)V100 GPU算力碼。

1. 背景介紹

該項(xiàng)目為👉?LIC2022視頻語義理解技術(shù)評(píng)測任務(wù)👈 的快速啟動(dòng)版基準(zhǔn)模型,項(xiàng)目基于github基線改造,為選手提供了存儲(chǔ)和算力支持。模型包括兩部分:1)視頻分類標(biāo)簽?zāi)P?paddle-video-classify-tag;2)視頻語義標(biāo)簽?zāi)P?paddle-video-semantic-tag。

視頻分類標(biāo)簽?zāi)P透鶕?jù)視頻內(nèi)容在封閉的二級(jí)標(biāo)簽體系上進(jìn)行分類,得到描述視頻的分類標(biāo)簽;視頻語義標(biāo)簽?zāi)P蛷囊曨l的文本信息中抽取實(shí)體語義標(biāo)簽(選手可進(jìn)行升級(jí),如利用給定的知識(shí)庫進(jìn)行推理、融合多模信息提升標(biāo)簽理解效果,或生成標(biāo)簽等)。兩部分模型產(chǎn)出的標(biāo)簽結(jié)果,分別對(duì)應(yīng)技術(shù)評(píng)測標(biāo)簽中的分類標(biāo)簽、語義標(biāo)簽。

2. 快速實(shí)踐

2.1 環(huán)境搭建

運(yùn)行下列指令添加路徑。

注:注釋行中的依賴包已持久化安裝至項(xiàng)目目錄,無需重復(fù)安裝。

In [?]

# !mkdir /home/aistudio/external-libraries # !pip install opencv-python -i https://mirror.baidu.com/pypi/simple -t /home/aistudio/external-libraries # !pip install paddlenlp==2.0.1 -i https://mirror.baidu.com/pypi/simple -t /home/aistudio/external-libraries # !pip install tqdm wget -t /home/aistudio/external-libraries !tar -xvf external-libraries.tar !rm external-libraries.tar import os import sys sys.path.append('/home/aistudio/external-libraries')!mkdir paddle-video-classify-tag && cd paddle-video-classify-tag && mkdir data !mkdir paddle-video-semantic-tag && cd paddle-video-semantic-tag && mkdir data

2.2 數(shù)據(jù)加載

數(shù)據(jù)內(nèi)容包含:

  • 樣例訓(xùn)練集(比賽使用訓(xùn)練集的抽樣集合)的視頻信息,及官方提供的tsn視覺特征

  • A榜測試集(比賽使用的A榜測試集全量集合)的視頻信息,及官方提供的tsn視覺特征

In [?]

!tar -zxvf /home/aistudio/data/data142559/dataset_sample.tar.gz !cd paddle-video-classify-tag && unzip /home/aistudio/data/data142559/tsn_features_test_a.zip !cd paddle-video-classify-tag && unzip /home/aistudio/data/data142559/tsn_features_train_sample.zip

2.3 視頻分類標(biāo)簽基線

該基線基于?VideoTag飛槳大規(guī)模視頻分類模型?,能夠根據(jù)視頻內(nèi)容在封閉的二級(jí)標(biāo)簽體系上進(jìn)行分類,得到描述視頻的分類標(biāo)簽。

2.3.1 數(shù)據(jù)準(zhǔn)備

該視頻分類標(biāo)簽?zāi)P褪褂肨SN網(wǎng)絡(luò)提取原始視頻的向量表征。 由于該步驟比較耗時(shí),我們提供了所有視頻數(shù)據(jù)的TSN特征,運(yùn)行2.2數(shù)據(jù)加載 章節(jié)指令即可。

數(shù)據(jù)集上有兩級(jí)標(biāo)簽,我們分別在一級(jí)標(biāo)簽(level1)和二級(jí)標(biāo)簽(level2)的設(shè)定下進(jìn)行分類實(shí)驗(yàn)。 在每一種設(shè)定下均需要進(jìn)行訓(xùn)練、驗(yàn)證和測試的數(shù)據(jù)劃分。準(zhǔn)備過程會(huì)得到如下的輸出:

paddle-video-classify-tag|-- weights|-- attention_lstm.pdmodel|-- attention_lstm.pdopt|-- attention_lstm.pdparams

運(yùn)行以下代碼,準(zhǔn)備視頻語義理解數(shù)據(jù)集的label集合;訓(xùn)練、驗(yàn)證、測試的樣本列表等。

In [?]

import os import os.path as osp import requests import time import codecs import json import argparse import randomdef create_splits_indice(n_samples, SPLITS):assert sum([v for k, v in SPLITS]) == 1.0indices = list(range(n_samples))random.shuffle(indices)split2indice = {}r_offset = 0for idx, (split, ratio) in enumerate(SPLITS):l_offset = r_offsetif idx == len(SPLITS) - 1:r_offset = n_sampleselse:r_offset = int(n_samples * ratio) + l_offsetsplit2indice[split] = indices[l_offset:r_offset]return split2indicedef prepare_split(data, split_name, test_only=False, gather_labels=False, classify_tag_dir='/home/aistudio/paddle-video-classify-tag'):'''1. Prepare ALL (unique) labels for classification from trainval-set.2. For each split, generate sample list for level1 & level2 classification.'''trainval_tsn_feature_dir = '/home/aistudio/paddle-video-classify-tag/tsn_features_train_sample'test_tsn_feature_dir = '/home/aistudio/paddle-video-classify-tag/tsn_features_test_a'cls_data_dir = os.path.join(classify_tag_dir, 'data')if not os.path.exists(cls_data_dir):os.mkdir(cls_data_dir)sample_nids = [sample["@id"] for sample in data]level1_labels = []level2_labels = []if not test_only:for sample in data:category = {each["@meta"]["type"]: each["@value"]for each in sample["category"]}level1_labels.append(category["level1"])level2_labels.append(category["level2"])def create_sample_list(sample_labels, level_name):save_label_file = cls_data_dir + "/{}_label.txt".format(level_name)if gather_labels:# For trainval set:# Gather candidate labels and dump to {level1,level2}_label.txtlabels = sorted([str(label) for label in list(set(sample_labels))])with codecs.open(save_label_file, "w", encoding="utf-8") as ouf:ouf.writelines([label + "\n" for label in labels])print("Saved " + save_label_file)else:# For test set: load existing labels.with codecs.open(save_label_file, "r", encoding="utf-8") as inf:labels = [line.strip() for line in inf.readlines()]label2idx = {label: idx for idx, label in enumerate(labels)}sample_lines = []# Generate sample list: one sample per line (feature_path -> label)for i in range(len(sample_nids)):label_indice = label2idx[str(sample_labels[i])] if not test_only \else -1if split_name in ["train", "val", "trainval"]:tsn_feature_dir = trainval_tsn_feature_direlif split_name in ["test"]:tsn_feature_dir = test_tsn_feature_dirfeature_path = osp.join(tsn_feature_dir,"{}.npy".format(sample_nids[i]))if osp.exists(feature_path):line = "{} {}\n".format(feature_path, str(label_indice))sample_lines.append(line)save_split_file = cls_data_dir + "/{}_{}.list".format(level_name, split_name)with codecs.open(save_split_file, "w", encoding="utf-8") as ouf:ouf.writelines(sample_lines)print("Saved {}, size={}".format(save_split_file,len(sample_lines)))create_sample_list(level1_labels, "level1")create_sample_list(level2_labels, "level2")random.seed(6666) classify_tag_dir = '/home/aistudio/paddle-video-classify-tag' if not os.path.exists(classify_tag_dir):os.mkdir(classify_tag_dir) trainval_path = '/home/aistudio/dataset_sample/train.sample.json' test_path = '/home/aistudio/dataset_sample/test_a.json'# load data for train & validation (have labels). with codecs.open(trainval_path, "r", encoding="utf-8") as inf:print("Loading {}...".format(trainval_path))lines = inf.readlines()trainval_data = [json.loads(line) for line in lines]# load data for test (no labels). with codecs.open(test_path, "r", encoding="utf-8") as inf:print("Loading {}...".format(test_path))lines = inf.readlines()test_data = [json.loads(line) for line in lines]# split the trainval data into train-set(80%) and validation-set(20%). split2indice = create_splits_indice(len(trainval_data), [("train", 4.0 / 5.0),("val", 1.0 / 5.0),]) train_data = [trainval_data[idx] for idx in split2indice["train"]] val_data = [trainval_data[idx] for idx in split2indice["val"]]prepare_split(trainval_data, "trainval", gather_labels=True) prepare_split(train_data, "train") prepare_split(val_data, "val") prepare_split(test_data, "test", test_only=True) Loading /home/aistudio/dataset_sample/train.sample.json... Loading /home/aistudio/dataset_sample/test_a.json...

2.3.2 訓(xùn)練與驗(yàn)證

運(yùn)行以下指令訓(xùn)練分類模型。

選手可以參考原代碼庫中的模型微調(diào)指南獲取更多信息。

In [4]

import os import sys import argparse import ast import logging import paddle paddle.enable_static() sys.path.append('/home/aistudio/external-libraries') sys.path.append('/home/aistudio/work/paddle-video-classify-tag')from utils.train_utils import train_with_dataloader import models from utils.config_utils import * from reader import get_reader from metrics import get_metrics from utils.utility import check_cuda from utils.utility import check_versionlogging.root.handlers = [] FORMAT = '[%(levelname)s: %(filename)s: %(lineno)4d]: %(message)s' logging.basicConfig(level=logging.INFO, format=FORMAT) logger = logging.getLogger(__name__)class Args():model_name = 'AttentionLSTM'config = '/home/aistudio/work/paddle-video-classify-tag/configs/attention_lstm-single-level1.yaml'batch_size = Nonelearning_rate = Nonepretrain = '/home/aistudio/work/paddle-video-classify-tag/weights/attention_lstm'use_gpu = Trueno_memory_optimize = Falseepoch = Nonevalid_interval = 1save_dir = os.path.join('paddle-video-classify-tag', 'data', 'checkpoints', 'level1')log_interval = 50fix_random_seed = Falsedef train(args):# parse configconfig = parse_config(args.config)train_config = merge_configs(config, 'train', vars(args))valid_config = merge_configs(config, 'valid', vars(args))# print_configs(train_config, 'Train')train_model = models.get_model(args.model_name, train_config, mode='train')valid_model = models.get_model(args.model_name, valid_config, mode='valid')# build modelstartup = paddle.static.Program()train_prog = paddle.static.Program()if args.fix_random_seed:startup.random_seed = 1000train_prog.random_seed = 1000with paddle.static.program_guard(train_prog, startup):with paddle.utils.unique_name.guard():train_model.build_input(use_dataloader=True)train_model.build_model()# for the input, has the form [data1, data2,..., label], so train_feeds[-1] is labeltrain_feeds = train_model.feeds()train_fetch_list = train_model.fetches()train_loss = train_fetch_list[0]optimizer = train_model.optimizer()optimizer.minimize(train_loss)train_dataloader = train_model.dataloader()valid_prog = paddle.static.Program()with paddle.static.program_guard(valid_prog, startup):with paddle.utils.unique_name.guard():valid_model.build_input(use_dataloader=True)valid_model.build_model()valid_feeds = valid_model.feeds()valid_fetch_list = valid_model.fetches()valid_dataloader = valid_model.dataloader()place = paddle.CUDAPlace(0) if args.use_gpu else paddle.CPUPlace()exe = paddle.static.Executor(place)exe.run(startup)if args.pretrain:train_model.load_pretrain_params(exe, args.pretrain, train_prog)build_strategy = paddle.fluid.compiler.BuildStrategy()build_strategy.enable_inplace = Trueexec_strategy = paddle.static.ExecutionStrategy()compiled_train_prog = paddle.static.CompiledProgram(train_prog).with_data_parallel(loss_name=train_loss.name,build_strategy=build_strategy,exec_strategy=exec_strategy)compiled_valid_prog = paddle.static.CompiledProgram(valid_prog).with_data_parallel(share_vars_from=compiled_train_prog,build_strategy=build_strategy,exec_strategy=exec_strategy)# get readerbs_denominator = 1if args.use_gpu:# check number of GPUsgpus = os.getenv("CUDA_VISIBLE_DEVICES", "")if gpus == "":passelse:gpus = gpus.split(",")num_gpus = len(gpus)assert num_gpus == train_config.TRAIN.num_gpus, \"num_gpus({}) set by CUDA_VISIBLE_DEVICES " \"shoud be the same as that " \"set in {}({})".format(num_gpus, args.config, train_config.TRAIN.num_gpus)bs_denominator = train_config.TRAIN.num_gpustrain_config.TRAIN.batch_size = int(train_config.TRAIN.batch_size /bs_denominator)valid_config.VALID.batch_size = int(valid_config.VALID.batch_size /bs_denominator)train_reader = get_reader(args.model_name.upper(), 'train', train_config)valid_reader = get_reader(args.model_name.upper(), 'valid', valid_config)# get metricstrain_metrics = get_metrics(args.model_name.upper(), 'train', train_config)valid_metrics = get_metrics(args.model_name.upper(), 'valid', valid_config)epochs = args.epoch or train_model.epoch_num()exe_places = paddle.static.cuda_places() if args.use_gpu else paddle.static.cpu_places()train_dataloader.set_sample_list_generator(train_reader, places=exe_places)valid_dataloader.set_sample_list_generator(valid_reader, places=exe_places)train_with_dataloader(exe,train_prog,compiled_train_prog,train_dataloader,train_fetch_list,train_metrics,epochs=epochs,log_interval=args.log_interval,valid_interval=args.valid_interval,save_dir=args.save_dir,save_model_name=args.model_name,fix_random_seed=args.fix_random_seed,compiled_test_prog=compiled_valid_prog,test_dataloader=valid_dataloader,test_fetch_list=valid_fetch_list,test_metrics=valid_metrics)args = Args()# check whether the installed paddle is compiled with GPU check_cuda(args.use_gpu) check_version()args.model_name = 'AttentionLSTM' args.log_interval = 50# first layer args.config = '/home/aistudio/work/paddle-video-classify-tag/configs/attention_lstm-single-level1.yaml' args.save_dir = '/home/aistudio/paddle-video-classify-tag/data/checkpoints/level1' if not os.path.exists(args.save_dir):os.makedirs(args.save_dir) train(args)# second layer args.config = '/home/aistudio/work/paddle-video-classify-tag/configs/attention_lstm-single-level2.yaml' args.save_dir = '/home/aistudio/paddle-video-classify-tag/data/checkpoints/level2' if not os.path.exists(args.save_dir):os.makedirs(args.save_dir) train(args) [INFO: regularizer.py: 101]: If regularizer of a Parameter has been set by 'fluid.ParamAttr' or 'fluid.WeightNormParamAttr' already. The Regularization[L2Decay, regularization_coeff=0.000800] in Optimizer will not take effect, and it will only be applied to other Parameters! [INFO: attention_lstm.py: 164]: Load pretrain weights from /home/aistudio/work/paddle-video-classify-tag/weights/attention_lstm, exclude fc layer. [INFO: train_utils.py: 45]: ------- learning rate [0.000125], learning rate counter [-] ----- [INFO: metrics_util.py: 80]: [TRAIN 2022-04-28 22:05:55] Epoch 0, iter 0, time 2.767573356628418, , loss = 2923.538330, Hit@1 = 0.02, PERR = 0.02, GAP = 0.02 [INFO: train_utils.py: 122]: [TRAIN] Epoch 0 training finished, average time: 1.7017907901686065 share_vars_from is set, scope is ignored. [INFO: metrics_util.py: 80]: [TEST] test_iter 0 , loss = 302.009247, Hit@1 = 0.53, PERR = 0.53, GAP = 0.60 [INFO: metrics_util.py: 124]: [TEST] Epoch0 Finish avg_hit_at_one: 0.505859375, avg_perr: 0.505859375, avg_loss :329.6025136311849, aps: [0.2056517240004745, 0.7582162120652176, 0.06977232338023834, 0, 0.0, 0.8453953428088683, 0.5386290618179087, 0.12647074684748238, 0.06464234760008425, 0.8143473229661798, 0.025846861750262674, 0.8125, 0.5606631794981926, 0.025, 0.6332121597279986, 0.48199568449775865, 0.03583711373823246, 0.844207523649567, 0.006626716822675181, 0.8250196464463089, 0.5152466244119106, 0.27196454054549163, 0.6783860174137636, 0, 0.053316102627013265, 0.19644972430583615, 0.9643802486046634, 0.17060293754538206, 0.05704956089391827, 0.07652161831232097, 0, 0.038493472255469084, 0.5543688830575145], gap:0.5390077300563219 [INFO: train_utils.py: 45]: ------- learning rate [0.000125], learning rate counter [-] ----- [INFO: metrics_util.py: 80]: [TRAIN 2022-04-28 22:08:10] Epoch 1, iter 0, time 2.6242427825927734, , loss = 364.424683, Hit@1 = 0.48, PERR = 0.48, GAP = 0.44 [INFO: train_utils.py: 122]: [TRAIN] Epoch 1 training finished, average time: 1.7430822508675712 [INFO: metrics_util.py: 80]: [TEST] test_iter 0 , loss = 248.946411, Hit@1 = 0.62, PERR = 0.62, GAP = 0.70 [INFO: metrics_util.py: 124]: [TEST] Epoch1 Finish avg_hit_at_one: 0.5944010416666666, avg_perr: 0.5944010416666666, avg_loss :282.882386525472, aps: [0.2639931946892855, 0.85903455775213, 0.09778176122448987, 0, 0.030033261592643315, 0.8680903206216465, 0.6081577153299009, 0.22149620838665163, 0.09123414426924248, 0.8905820604115383, 0.055248944301131656, 0.95, 0.5856899952942017, 0.168086815154962, 0.6645151962662453, 0.5090036826258103, 0.17872309016688617, 0.8700421734225023, 0.03301833984693047, 0.8629644432673815, 0.5494279056102854, 0.33194993658077027, 0.7208050878611371, 0, 0.2092875916594547, 0.24870436262552853, 0.9722225403199237, 0.19206833214739047, 0.09036579340064066, 0.10623058817084435, 0, 0.03769712329789659, 0.6627263444618232], gap:0.6346135299340665 [INFO: train_utils.py: 45]: ------- learning rate [0.000125], learning rate counter [-] ----- [INFO: metrics_util.py: 80]: [TRAIN 2022-04-28 22:10:24] Epoch 2, iter 0, time 1.708108901977539, , loss = 315.439453, Hit@1 = 0.55, PERR = 0.55, GAP = 0.56 [INFO: train_utils.py: 122]: [TRAIN] Epoch 2 training finished, average time: 1.795787981578282 [INFO: metrics_util.py: 80]: [TEST] test_iter 0 , loss = 235.408524, Hit@1 = 0.63, PERR = 0.63, GAP = 0.72 [INFO: metrics_util.py: 124]: [TEST] Epoch2 Finish avg_hit_at_one: 0.6002604166666666, avg_perr: 0.6002604166666666, avg_loss :271.76447041829425, aps: [0.31461424520869374, 0.8936133494848872, 0.11043648749825534, 0.125, 0.03722438391699092, 0.8856478710931908, 0.6146493900189034, 0.22876525268503656, 0.10540428561979417, 0.8973407150987074, 0.07046950416809067, 1.0, 0.5973890927620836, 0.19951584164627645, 0.6677338493633069, 0.5268199460078398, 0.24872847879439597, 0.8782532773887733, 0.1096882518043304, 0.8638357292555305, 0.5653448812511401, 0.32151854978205635, 0.7386509578503802, 0, 0.2089245778417543, 0.36278048502308347, 0.9742929999991989, 0.25464991632445033, 0.13271150047535973, 0.13510689282158658, 0.0, 0.04718878169155384, 0.6798868023231818], gap:0.6512923596529407 [INFO: regularizer.py: 101]: If regularizer of a Parameter has been set by 'fluid.ParamAttr' or 'fluid.WeightNormParamAttr' already. The Regularization[L2Decay, regularization_coeff=0.000800] in Optimizer will not take effect, and it will only be applied to other Parameters! [INFO: attention_lstm.py: 164]: Load pretrain weights from /home/aistudio/work/paddle-video-classify-tag/weights/attention_lstm, exclude fc layer. [INFO: train_utils.py: 45]: ------- learning rate [0.000125], learning rate counter [-] ----- [INFO: metrics_util.py: 80]: [TRAIN 2022-04-28 22:13:03] Epoch 0, iter 0, time 2.3079347610473633, , loss = 24682.550781, Hit@1 = 0.00, PERR = 0.00, GAP = 0.00 [INFO: train_utils.py: 122]: [TRAIN] Epoch 0 training finished, average time: 1.7917025527175592 share_vars_from is set, scope is ignored. [INFO: metrics_util.py: 80]: [TEST] test_iter 0 , loss = 600.804932, Hit@1 = 0.30, PERR = 0.30, GAP = 0.24 [INFO: metrics_util.py: 124]: [TEST] Epoch0 Finish avg_hit_at_one: 0.21549479166666666, avg_perr: 0.21549479166666666, avg_loss :640.4301401774088, aps: [0, 0, 0, 0.40242828226797467, 0, 0, 0, 0, 0.33863014399927605, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.017490013599745342, 0, 0, 0, 0, 0, 0, 0, 0.03521126486951533, 0, 0, 0, 0, 0, 0, 0.03405457205661094, 0, 0, 0, 0, 0.0, 0.6962887915273482, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.04010896770467283, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.05729046027105949, 0, 0, 0, 0, 0.006493506493506493, 0, 0, 0, 0, 0, 0.6447801522817966, 0, 0, 0.06971153846153846, 0, 0, 0, 0, 0, 0.06551067886636681, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.20577600830312404, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.05182387738056744, 0.19935288798575898, 0, 0, 0, 0, 0, 0, 0.006060606060606061, 0, 0.01652246148167635, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.3408273189259355, 0, 0, 0.22446935557021744, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.10661600278272008, 0, 0, 0, 0.03607677045177045, 0, 0, 0, 0, 0.12624295024072427, 0, 0, 0, 0.011908733985379907, 0, 0, 0, 0, 0, 0.01123077136610415, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.14973782613585243, 0, 0, 0.6419203037914082, 0.3315040696329643, 0, 0, 0, 0.03735729886111951, 0, 0, 0, 0, 0.0006313131313131313, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.2578085880759878, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], gap:0.1536302281405276 [INFO: train_utils.py: 45]: ------- learning rate [0.000125], learning rate counter [-] ----- [INFO: metrics_util.py: 80]: [TRAIN 2022-04-28 22:15:21] Epoch 1, iter 0, time 2.288398265838623, , loss = 643.896606, Hit@1 = 0.26, PERR = 0.26, GAP = 0.17 [INFO: train_utils.py: 122]: [TRAIN] Epoch 1 training finished, average time: 1.7937103728858792 [INFO: metrics_util.py: 80]: [TEST] test_iter 0 , loss = 506.925232, Hit@1 = 0.42, PERR = 0.42, GAP = 0.35 [INFO: metrics_util.py: 124]: [TEST] Epoch1 Finish avg_hit_at_one: 0.322265625, avg_perr: 0.322265625, avg_loss :543.9810791015625, aps: [0, 0.6284037777940216, 0, 0.4476176894075993, 0, 0.017502088554720133, 0, 0.0, 0.49948578553903844, 0.6726278000591354, 0, 0, 0.014814814814814815, 0, 0, 0.0, 0, 0, 0.12025469917857523, 0, 0, 0, 0, 0, 0, 0, 0.06116341245294592, 0, 0.0, 0, 0, 0, 0, 0.08986510263555623, 0, 0, 0, 0.08181818181818182, 0.1834875432956615, 0.7799351937440513, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.8018812602440357, 0, 0, 0, 0, 0.0, 0, 0, 0, 0, 0, 0, 0.03716972682489924, 0, 0, 0, 0.35282327653333223, 0.29747338431548953, 0, 0, 0, 0.03269644204099986, 0, 0, 0, 0.10658710658710657, 0, 0.7397457184599068, 0.021230242805867577, 0.03970086959790015, 0.21014492753623187, 0, 0, 0, 0, 0, 0.2012167613391781, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.0, 0, 0, 0, 0, 0.5718171721543543, 0.20836023284422855, 0, 0, 0.0205176753138432, 0, 0, 0, 0, 0, 0, 0, 0, 0.0, 0, 0.32366077494535755, 0.5132305645871157, 0, 0, 0, 0, 0, 0, 0.059059953550699054, 0, 0.02679003573313643, 0, 0, 0, 0, 0.010724231560075813, 0, 0, 0.0, 0, 0.3694164859158865, 0.04969704265478912, 0.06605492031500655, 0.26678914407765286, 0.5, 0.1117114831313118, 0.48005756650486286, 0, 0, 0, 0, 0, 0, 0, 0.020842379504993486, 0, 0, 0, 0.16806455477716875, 0, 0, 0, 0.35504129480409174, 0, 0, 0, 0, 0.18455439535372678, 0, 0.10785929617324966, 0, 0.07077634245187436, 0, 0, 0, 0.15618791293239848, 0, 0.013192995678206728, 0, 0, 0, 0, 0, 0, 0.38888888888888895, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0.9289044289044288, 0.38066141949737636, 0, 0, 0.7315730501252811, 0.30272837068177305, 0.03046189453320919, 0, 0, 0.19456917878558563, 0, 0, 0, 0, 0.015130219289343896, 0, 0, 0, 0, 0, 0, 0, 0, 0.03746427683108207, 0, 0, 0, 0.1412861620299421, 0, 0, 0, 0, 0, 0, 0, 0.3944251458547141, 0, 0, 0.2678798532334657, 0.5851648351648351, 0, 0, 0, 0.018914641343419712, 0, 0, 0.12094981620223223, 0.0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], gap:0.2629719332516419 [INFO: train_utils.py: 45]: ------- learning rate [0.000125], learning rate counter [-] ----- [INFO: metrics_util.py: 80]: [TRAIN 2022-04-28 22:17:41] Epoch 2, iter 0, time 2.2935118675231934, , loss = 554.811279, Hit@1 = 0.31, PERR = 0.31, GAP = 0.25 [INFO: train_utils.py: 122]: [TRAIN] Epoch 2 training finished, average time: 1.8651155549652723 [INFO: metrics_util.py: 80]: [TEST] test_iter 0 , loss = 457.075806, Hit@1 = 0.42, PERR = 0.42, GAP = 0.43 [INFO: metrics_util.py: 124]: [TEST] Epoch2 Finish avg_hit_at_one: 0.3645833333333333, avg_perr: 0.3645833333333333, avg_loss :490.911376953125, aps: [0, 0.7264839860993707, 0, 0.47462585341997715, 0, 0.014711590709519537, 0, 0.04822073388816287, 0.5609560108708409, 0.8027352365113277, 0, 0, 0.32129792215393616, 0, 0, 0.02431476569407604, 0, 0.0, 0.2461927562794056, 0, 0, 0, 0, 0, 0.1660546382768605, 0.03484848484848485, 0.06536851469684964, 0, 0.0, 0, 0, 0, 0, 0.08563124068799817, 0, 0, 0, 0.34035087719298246, 0.33772339731642054, 0.8509592092451618, 0, 0.03125, 0, 0.0, 0.020867208672086725, 0.039261363636363636, 0, 0, 0, 0, 0.8568407053083421, 0, 0, 0, 0, 0.03447038958508859, 0, 0, 0, 0.004165394142997726, 0, 0.08268743667679837, 0.048576534576534575, 0, 0, 0, 0.41189811345296407, 0.6160275221199591, 0, 0, 0, 0.05479598297850816, 0, 0.011745038316747055, 0, 0.14839572192513367, 0.017857142857142856, 0.8142012317112416, 0.03919328856298826, 0.10154059203661106, 0.5147058823529411, 0, 0.0027100271002710027, 0.0, 0, 0, 0.25578997486755245, 0, 0.0, 0.03891402714932127, 0, 0.16742424242424242, 0, 0, 0, 0, 1.0, 0, 0, 0, 0, 0.6971533526064891, 0.25392683350632306, 0.0, 0, 0.12435782848299608, 0, 0, 0.0, 0, 0, 0, 0, 0, 0.03965336134453781, 0, 0.3146511903607467, 0.5880597551385015, 0, 0, 0, 0, 0, 0, 0.08627606708336637, 0, 0.031046668257497162, 0, 0, 0, 0, 0.012812752669984209, 0, 0, 0.027443216190947587, 0, 0.3842286813576051, 0.3885135135135135, 0.08781870642994039, 0.6136011372304279, 0.10267857142857142, 0.17066271855227885, 0.5040137737506158, 0, 0, 0, 0, 0.0, 0, 0.018518518518518517, 0.12702702702702703, 0, 0.09607023411371238, 0, 0.2145263036917232, 0, 0, 0, 0.48504451428566525, 0, 0, 0, 0, 0.24584729615785442, 0, 0.18667368667368664, 0, 0.13666142557651992, 0, 0, 0, 0.3403490239016555, 0.7, 0.025737892154730938, 0.030303030303030304, 0, 0, 0, 0, 0, 0.7166666666666667, 0, 0, 0, 0, 0, 0.027777777777777776, 0.15572533484248255, 0, 0, 0.9294127880666342, 0.3886217948717949, 0, 0, 0.8316227550780863, 0.3991161073245167, 0.13076985608832742, 0, 0, 0.2779068113777733, 0, 0, 0.0, 0, 0.023388721455443927, 0, 0, 0, 0, 0, 0, 0, 0, 0.08238636363636363, 0, 0.0, 0, 0.2810910550416964, 0, 0.06020066889632107, 0, 0, 0, 0, 0, 0.47000346625667766, 0, 0, 0.4060489971691195, 0.6409310594991161, 0, 0, 0, 0.027279501544207423, 0, 0, 0.2954107030662055, 0.1875, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], gap:0.35114517815351143

2.3.3 生成分類標(biāo)簽結(jié)果

運(yùn)行以下代碼塊生成標(biāo)簽預(yù)測結(jié)果。

生成的標(biāo)簽結(jié)果存儲(chǔ)在./predict_results/level{1, 2}_top1.json

In [1]

import os import sys import time import logging import argparse import ast import numpy as np import paddle try:import cPickle as pickle except:import picklesys.path.append('/home/aistudio/external-libraries') sys.path.append('/home/aistudio/work/paddle-video-classify-tag')from utils.config_utils import * import models from reader import get_reader from metrics import get_metrics from utils.utility import check_cuda from utils.utility import check_versionlogging.root.handlers = [] FORMAT = '[%(levelname)s: %(filename)s: %(lineno)4d]: %(message)s' logging.basicConfig(level=logging.DEBUG, format=FORMAT) logger = logging.getLogger(__name__)class Args():model_name = 'AttentionLSTM'config = '/home/aistudio/work/paddle-video-classify-tag/configs/attention_lstm-single-level1.yaml'use_gpu = Truebatch_size = Noneweights = '/home/aistudio/paddle-video-classify-tag/data/checkpoints/level1/AttentionLSTM_epoch2.pdparams'filelist = Nonelog_interval = 200infer_topk = 10save_dir = './predict_results'save_file = "top1.json"label_file = '/home/aistudio/paddle-video-classify-tag/data/level1_label.txt'video_path = Nonedef infer(args):# parse configconfig = parse_config(args.config)infer_config = merge_configs(config, 'infer', vars(args))print_configs(infer_config, "Infer")infer_model = models.get_model(args.model_name, infer_config, mode='infer')infer_model.build_input(use_dataloader=False)infer_model.build_model()infer_feeds = infer_model.feeds()infer_outputs = infer_model.outputs()place = paddle.CUDAPlace(0) if args.use_gpu else paddle.CPUPlace()exe = paddle.static.Executor(place)exe.run(paddle.static.default_startup_program())filelist = args.filelist or infer_config.INFER.filelistfilepath = args.video_path or infer_config.INFER.get('filepath', '')if filepath != '':assert os.path.exists(filepath), "{} not exist.".format(filepath)else:assert os.path.exists(filelist), "{} not exist.".format(filelist)# get infer readerinfer_reader = get_reader(args.model_name.upper(), 'infer', infer_config)if args.weights:assert os.path.exists(args.weights), "Given weight dir {} not exist.".format(args.weights)# if no weight files specified, download weights from paddleweights = args.weights or infer_model.get_weights()infer_model.load_test_weights(exe, weights,paddle.static.default_main_program())infer_feeder = paddle.fluid.DataFeeder(place=place, feed_list=infer_feeds)fetch_list = infer_model.fetches()infer_metrics = get_metrics(args.model_name.upper(), 'infer', infer_config)infer_metrics.reset()periods = []cur_time = time.time()for infer_iter, data in enumerate(infer_reader()):data_feed_in = [items[:-1] for items in data]video_id = [items[-1] for items in data]infer_outs = exe.run(fetch_list=fetch_list,feed=infer_feeder.feed(data_feed_in))infer_result_list = [item for item in infer_outs] + [video_id]prev_time = cur_timecur_time = time.time()period = cur_time - prev_timeperiods.append(period)infer_metrics.accumulate(infer_result_list)if args.log_interval > 0 and infer_iter % args.log_interval == 0:logger.info('Processed {} samples'.format((infer_iter + 1) * len(video_id)))logger.info('[INFER] infer finished. average time: {}'.format(np.mean(periods)))if not os.path.isdir(args.save_dir):os.makedirs(args.save_dir)infer_metrics.finalize_and_log_out(savedir=args.save_dir,savefile=args.save_file,label_file=args.label_file)args = Args()# 一級(jí)標(biāo)簽 args.config = '/home/aistudio/work/paddle-video-classify-tag/configs/attention_lstm-single-level1.yaml' args.weights = '/home/aistudio/paddle-video-classify-tag/data/checkpoints/level1/AttentionLSTM_epoch2.pdparams' args.label_file = '/home/aistudio/paddle-video-classify-tag/data/level1_label.txt' args.save_file = 'level1_top1.json' infer(args)# 二級(jí)標(biāo)簽 args.config = '/home/aistudio/work/paddle-video-classify-tag/configs/attention_lstm-single-level2.yaml' args.weights = '/home/aistudio/paddle-video-classify-tag/data/checkpoints/level2/AttentionLSTM_epoch2.pdparams' args.label_file = '/home/aistudio/paddle-video-classify-tag/data/level2_label.txt' args.save_file = 'level2_top1.json' infer(args) /opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:26: DeprecationWarning: `np.int` is a deprecated alias for the builtin `int`. To silence this warning, use `int` by itself. Doing this will not modify any behavior and is safe. When replacing `np.int`, you may wish to use e.g. `np.int64` or `np.int32` to specify the precision. If you wish to review your current use, check the release note link for additional information. Deprecated in NumPy 1.20; for more details and guidance: https://numpy.org/devdocs/release/1.20.0-notes.html#deprecationsdef convert_to_list(value, n, name, dtype=np.int): [INFO: config_utils.py: 70]: ---------------- Infer Arguments ---------------- [INFO: config_utils.py: 72]: MODEL: [INFO: config_utils.py: 74]: name:AttentionLSTM [INFO: config_utils.py: 74]: dataset:YouTube-8M [INFO: config_utils.py: 74]: bone_nework:None [INFO: config_utils.py: 74]: drop_rate:0.5 [INFO: config_utils.py: 74]: feature_names:['rgb'] [INFO: config_utils.py: 74]: feature_dims:[2048] [INFO: config_utils.py: 74]: embedding_size:1024 [INFO: config_utils.py: 74]: lstm_size:512 [INFO: config_utils.py: 74]: num_classes:278 [INFO: config_utils.py: 74]: topk:20 [INFO: config_utils.py: 72]: TRAIN: [INFO: config_utils.py: 74]: epoch:3 [INFO: config_utils.py: 74]: learning_rate:0.000125 [INFO: config_utils.py: 74]: decay_epochs:[5] [INFO: config_utils.py: 74]: decay_gamma:0.1 [INFO: config_utils.py: 74]: weight_decay:0.0008 [INFO: config_utils.py: 74]: num_samples:35952 [INFO: config_utils.py: 74]: pretrain_base:None [INFO: config_utils.py: 74]: batch_size:128 [INFO: config_utils.py: 74]: use_gpu:True [INFO: config_utils.py: 74]: num_gpus:1 [INFO: config_utils.py: 74]: filelist:/home/aistudio/paddle-video-classify-tag/data/level2_train.list [INFO: config_utils.py: 72]: VALID: [INFO: config_utils.py: 74]: batch_size:128 [INFO: config_utils.py: 74]: filelist:/home/aistudio/paddle-video-classify-tag/data/level2_val.list [INFO: config_utils.py: 72]: TEST: [INFO: config_utils.py: 74]: batch_size:128 [INFO: config_utils.py: 74]: filelist:/home/aistudio/paddle-video-classify-tag/data/level2_val.list [INFO: config_utils.py: 72]: INFER: [INFO: config_utils.py: 74]: batch_size:1 [INFO: config_utils.py: 74]: filelist:/home/aistudio/paddle-video-classify-tag/data/level2_test.list [INFO: config_utils.py: 75]: ------------------------------------------------- W0428 23:33:54.649835 8407 device_context.cc:362] Please NOTE: device: 0, GPU Compute Capability: 7.0, Driver API Version: 11.0, Runtime API Version: 10.1 W0428 23:33:54.655040 8407 device_context.cc:372] device: 0, cuDNN Version: 7.6. [INFO: 3560385804.py: 106]: Processed 1 samples [INFO: 3560385804.py: 106]: Processed 201 samples [INFO: 3560385804.py: 106]: Processed 401 samples [INFO: 3560385804.py: 106]: Processed 601 samples [INFO: 3560385804.py: 106]: Processed 801 samples [INFO: 3560385804.py: 106]: Processed 1001 samples [INFO: 3560385804.py: 106]: Processed 1201 samples [INFO: 3560385804.py: 106]: Processed 1401 samples [INFO: 3560385804.py: 106]: Processed 1601 samples [INFO: 3560385804.py: 106]: Processed 1801 samples [INFO: 3560385804.py: 106]: Processed 2001 samples [INFO: 3560385804.py: 106]: Processed 2201 samples [INFO: 3560385804.py: 106]: Processed 2401 samples [INFO: 3560385804.py: 106]: Processed 2601 samples [INFO: 3560385804.py: 106]: Processed 2801 samples [INFO: 3560385804.py: 106]: Processed 3001 samples [INFO: 3560385804.py: 106]: Processed 3201 samples [INFO: 3560385804.py: 106]: Processed 3401 samples [INFO: 3560385804.py: 106]: Processed 3601 samples [INFO: 3560385804.py: 106]: Processed 3801 samples [INFO: 3560385804.py: 106]: Processed 4001 samples [INFO: 3560385804.py: 106]: Processed 4201 samples [INFO: 3560385804.py: 106]: Processed 4401 samples [INFO: 3560385804.py: 106]: Processed 4601 samples [INFO: 3560385804.py: 106]: Processed 4801 samples [INFO: 3560385804.py: 106]: Processed 5001 samples [INFO: 3560385804.py: 106]: Processed 5201 samples [INFO: 3560385804.py: 106]: Processed 5401 samples [INFO: 3560385804.py: 106]: Processed 5601 samples [INFO: 3560385804.py: 106]: Processed 5801 samples [INFO: 3560385804.py: 106]: Processed 6001 samples [INFO: 3560385804.py: 106]: Processed 6201 samples [INFO: 3560385804.py: 106]: Processed 6401 samples [INFO: 3560385804.py: 106]: Processed 6601 samples [INFO: 3560385804.py: 106]: Processed 6801 samples [INFO: 3560385804.py: 106]: Processed 7001 samples [INFO: 3560385804.py: 106]: Processed 7201 samples [INFO: 3560385804.py: 106]: Processed 7401 samples [INFO: 3560385804.py: 106]: Processed 7601 samples [INFO: 3560385804.py: 106]: Processed 7801 samples [INFO: 3560385804.py: 106]: Processed 8001 samples [INFO: 3560385804.py: 106]: Processed 8201 samples [INFO: 3560385804.py: 106]: Processed 8401 samples [INFO: 3560385804.py: 106]: Processed 8601 samples [INFO: 3560385804.py: 106]: Processed 8801 samples [INFO: 3560385804.py: 106]: Processed 9001 samples [INFO: 3560385804.py: 106]: Processed 9201 samples [INFO: 3560385804.py: 106]: Processed 9401 samples [INFO: 3560385804.py: 106]: Processed 9601 samples [INFO: 3560385804.py: 106]: Processed 9801 samples [INFO: 3560385804.py: 109]: [INFER] infer finished. average time: 0.03070716172327805 [INFO: metrics_util.py: 119]: Saved ./predict_results/level2_top1.json

2.4 視頻語義標(biāo)簽基線

該基線提供視頻語義標(biāo)簽的理解能力,基線從視頻的文本信息中抽取表示視頻內(nèi)容主旨的語義標(biāo)簽知識(shí)(選手可進(jìn)行升級(jí),如利用給定的知識(shí)庫進(jìn)行推理、融合多模信息提升標(biāo)簽理解效果等生成標(biāo)簽)。

2.4.1 數(shù)據(jù)處理

首先將數(shù)據(jù)整理成命名實(shí)體識(shí)別模型所需格式,并劃分訓(xùn)練集、驗(yàn)證集等??梢詤⒖糚addleNLP中文命名實(shí)體項(xiàng)目。

注:我們?cè)跀?shù)據(jù)處理階段去除了未在title中出現(xiàn)的語義標(biāo)簽。

In [8]

import os import pandas as pd import json import codecs import argparse import randomsys.path.append('/home/aistudio/external-libraries') TAG_NAMES = ["B-ENT", "I-ENT", "O"]class Args():trainval_path = '/home/aistudio/dataset_sample/train.sample.json'test_path = '/home/aistudio/dataset_sample/test_a.json'def gather_text_and_tags(sample, test_only=False):def fill_tags(surf):'''For entities that appear in text, replace their tags with 'B-ENT/I-ENT'.'''s_idx = text.find(surf)if s_idx != -1:tags[s_idx] = TAG_NAMES[0]for i in range(s_idx + 1, s_idx + len(surf)):tags[i] = TAG_NAMES[1]return 1return 0text = sample["title"].replace(" ", "").replace("\t", "")# init tag sequence with all 'O's.tags = [TAG_NAMES[2] for i in range(len(text))]entities = []if not test_only:entities = [each["@value"] for each in sample["tag"]]# annotate 'B-ENT' and 'I-ENT' tags.n_bingo_entities = sum([fill_tags(surf) for surf in entities if len(surf) > 0])# statisticsstats = {"txt_length": len(text),"n_entities": len(entities),"n_bingo_entities": n_bingo_entities,}return text, tags, statsdef stat_numberic_list(li, name="default"):assert isinstance(li, list)stat = {}stat["size"] = len(li)if all(isinstance(x, int) for x in li):stat["max"] = max(li)stat["min"] = min(li)stat["sum"] = sum(li)stat["avr"] = stat["sum"] / float(len(li))print("list-%s:\n\t%s" % (name, str(stat)))def analyze_annots(stats_list):for key in ["txt_length", "n_entities", "n_bingo_entities"]:numbers = [stats[key] for stats in stats_list]stat_numberic_list(numbers, name=key)def prepare_split(data, split_name, test_only=False):sample_lines = []nid_lines = []stats_list = []for idx in range(len(data)):text, tags, stats = gather_text_and_tags(data[idx], test_only=test_only)if len(text) == 0:continue# proper data format.text = '\002'.join([ch for ch in text])tags = '\002'.join(tags)sample_lines.append('\t'.join([text, tags]) + "\n")nid_lines.append(data[idx]["@id"] + "\n")stats_list.append(stats)if split_name == "trainval":# print statistics.analyze_annots(stats_list)save_split_file = "/home/aistudio/paddle-video-semantic-tag/data/{}.tsv".format(split_name)with codecs.open(save_split_file, "w", encoding="utf-8") as ouf:ouf.writelines(sample_lines)print("Saved {}, size={}".format(save_split_file, len(sample_lines)))with codecs.open("/home/aistudio/paddle-video-semantic-tag/data/nids.txt", "w", encoding="utf-8") as ouf:ouf.writelines(nid_lines)def create_splits_indice(n_samples, SPLITS):assert sum([v for k, v in SPLITS]) == 1.0indices = list(range(n_samples))random.shuffle(indices)split2indice = {}r_offset = 0for idx, (split, ratio) in enumerate(SPLITS):l_offset = r_offsetif idx == len(SPLITS) - 1:r_offset = n_sampleselse:r_offset = int(n_samples * ratio) + l_offsetsplit2indice[split] = indices[l_offset:r_offset]return split2indiceargs = Args() random.seed(6666)# load data for train & validation (have labels). with codecs.open(args.trainval_path, "r", encoding="utf-8") as inf:print("Loading {}...".format(args.trainval_path))lines = inf.readlines()trainval_data = [json.loads(line) for line in lines]# load data for test (no labels). with codecs.open(args.test_path, "r", encoding="utf-8") as inf:print("Loading {}...".format(args.test_path))lines = inf.readlines()test_data = [json.loads(line) for line in lines]# split the trainval data into train-set(80%) and validation-set(20%). split2indice = create_splits_indice(len(trainval_data), [("train", 3.0 / 4.0),("val", 1.0 / 4.0),]) train_data = [trainval_data[idx] for idx in split2indice["train"]] val_data = [trainval_data[idx] for idx in split2indice["val"]]label_map_file = "/home/aistudio/paddle-video-semantic-tag/data/label_map.json" with open(label_map_file, "w") as ouf:json.dump({tag: idx for idx, tag in enumerate(TAG_NAMES)}, ouf) print("Saved " + label_map_file)prepare_split(trainval_data, "trainval") prepare_split(train_data, "train") prepare_split(val_data, "val") prepare_split(test_data, "test", test_only=True) Loading /home/aistudio/dataset_sample/train.sample.json... Loading /home/aistudio/dataset_sample/test_a.json... Saved /home/aistudio/paddle-video-semantic-tag/data/label_map.json list-txt_length:{'size': 8079, 'max': 67, 'min': 1, 'sum': 118072, 'avr': 14.614680034657754} list-n_entities:{'size': 8079, 'max': 38, 'min': 0, 'sum': 21425, 'avr': 2.6519371209308082} list-n_bingo_entities:{'size': 8079, 'max': 8, 'min': 0, 'sum': 8292, 'avr': 1.0263646490902338} Saved /home/aistudio/paddle-video-semantic-tag/data/trainval.tsv, size=8079 Saved /home/aistudio/paddle-video-semantic-tag/data/train.tsv, size=6061 Saved /home/aistudio/paddle-video-semantic-tag/data/val.tsv, size=2018 Saved /home/aistudio/paddle-video-semantic-tag/data/test.tsv, size=9938

2.3.3 訓(xùn)練與驗(yàn)證

本模型使用了PaddleNLP模型庫中的bert-wwm-ext-chinese模型,更多模型可參考PaddleNLP Transformer API。

In [?]

import argparse import os import sys import random import time import math from functools import partial import jsonimport numpy as np import paddle from paddle.io import DataLoaderimport paddlenlp as ppnlp from paddlenlp.transformers import LinearDecayWithWarmup from paddlenlp.metrics import ChunkEvaluator from paddlenlp.datasets import load_dataset from paddlenlp.transformers import BertForTokenClassification, BertTokenizer from paddlenlp.data import Stack, Tuple, Pad, Dictsys.path.append('/home/aistudio/external-libraries')class Args():model_name_or_path = Noneoutput_dir = Nonemax_seq_length = 128batch_size = 8learning_rate = 5e-5weight_decay = 0.0adam_epsilon = 1e-8max_grad_norm = 1.0num_train_epochs = 3max_steps = -1warmup_steps = 0logging_steps = 1save_steps = 100seed = 42device = 'gpu'def evaluate(model, loss_fct, metric, data_loader, label_num):model.eval()metric.reset()avg_loss, precision, recall, f1_score = 0, 0, 0, 0for batch in data_loader:input_ids, token_type_ids, length, labels = batchlogits = model(input_ids, token_type_ids)loss = loss_fct(logits, labels)avg_loss = paddle.mean(loss)preds = logits.argmax(axis=2)num_infer_chunks, num_label_chunks, num_correct_chunks = metric.compute(None, length, preds, labels)metric.update(num_infer_chunks.numpy(),num_label_chunks.numpy(), num_correct_chunks.numpy())precision, recall, f1_score = metric.accumulate()print("eval loss: %f, precision: %f, recall: %f, f1: %f" %(avg_loss, precision, recall, f1_score))model.train()def tokenize_and_align_labels(example,tokenizer,no_entity_id,max_seq_len=512):labels = example['labels']example = example['tokens']tokenized_input = tokenizer(example,return_length=True,is_split_into_words=True,max_seq_len=max_seq_len)# -2 for [CLS] and [SEP]if len(tokenized_input['input_ids']) - 2 < len(labels):labels = labels[:len(tokenized_input['input_ids']) - 2]tokenized_input['labels'] = [no_entity_id] + labels + [no_entity_id]tokenized_input['labels'] += [no_entity_id] * (len(tokenized_input['input_ids']) - len(tokenized_input['labels']))return tokenized_inputdef _read(data_file, label_map_file):with open(label_map_file, "r") as inf:tag2label = json.load(inf)with open(data_file, 'r', encoding='utf-8') as inf:for line in inf:line_stripped = line.strip().split('\t')assert len(line_stripped) == 2tokens = line_stripped[0].split("\002")tags = line_stripped[1].split("\002")labels = [tag2label[tag] for tag in tags]yield {"tokens": tokens, "labels": labels}def do_train(args):paddle.set_device(args.device)if paddle.distributed.get_world_size() > 1:paddle.distributed.init_parallel_env()# Create dataset, tokenizer and dataloader.train_ds = load_dataset(_read,data_file="/home/aistudio/paddle-video-semantic-tag/data/train.tsv",label_map_file="/home/aistudio/paddle-video-semantic-tag/data/label_map.json",lazy=False)test_ds = load_dataset(_read,data_file="/home/aistudio/paddle-video-semantic-tag/data/val.tsv",label_map_file="/home/aistudio/paddle-video-semantic-tag/data/label_map.json",lazy=False)train_ds.label_list = test_ds.label_list = ["B-ENT", "I-ENT", "O"]tokenizer = BertTokenizer.from_pretrained(args.model_name_or_path)label_list = train_ds.label_listlabel_num = len(label_list)no_entity_id = label_num - 1trans_func = partial(tokenize_and_align_labels,tokenizer=tokenizer,no_entity_id=no_entity_id,max_seq_len=args.max_seq_length)train_ds = train_ds.map(trans_func)ignore_label = -100batchify_fn = lambda samples, fn=Dict({'input_ids': Pad(axis=0, pad_val=tokenizer.pad_token_id), # input'token_type_ids': Pad(axis=0, pad_val=tokenizer.pad_token_type_id), # segment'seq_len': Stack(), # seq_len'labels': Pad(axis=0, pad_val=ignore_label) # label}): fn(samples)train_batch_sampler = paddle.io.DistributedBatchSampler(train_ds, batch_size=args.batch_size, shuffle=True, drop_last=True)train_data_loader = DataLoader(dataset=train_ds,collate_fn=batchify_fn,num_workers=0,batch_sampler=train_batch_sampler,return_list=True)test_ds = test_ds.map(trans_func)test_data_loader = DataLoader(dataset=test_ds,collate_fn=batchify_fn,num_workers=0,batch_size=args.batch_size,return_list=True)# Define the model netword and its lossmodel = BertForTokenClassification.from_pretrained(args.model_name_or_path, num_classes=label_num)if paddle.distributed.get_world_size() > 1:model = paddle.DataParallel(model)num_training_steps = args.max_steps if args.max_steps > 0 else len(train_data_loader) * args.num_train_epochslr_scheduler = LinearDecayWithWarmup(args.learning_rate,num_training_steps, args.warmup_steps)# Generate parameter names needed to perform weight decay.# All bias and LayerNorm parameters are excluded.decay_params = [p.name for n, p in model.named_parameters()if not any(nd in n for nd in ["bias", "norm"])]optimizer = paddle.optimizer.AdamW(learning_rate=lr_scheduler,epsilon=args.adam_epsilon,parameters=model.parameters(),weight_decay=args.weight_decay,apply_decay_param_fun=lambda x: x in decay_params)loss_fct = paddle.nn.loss.CrossEntropyLoss(ignore_index=ignore_label)metric = ChunkEvaluator(label_list=label_list)global_step = 0last_step = args.num_train_epochs * len(train_data_loader)tic_train = time.time()for epoch in range(args.num_train_epochs):for step, batch in enumerate(train_data_loader):global_step += 1input_ids, token_type_ids, _, labels = batchlogits = model(input_ids, token_type_ids)loss = loss_fct(logits, labels)avg_loss = paddle.mean(loss)if global_step % args.logging_steps == 0:print("global step %d, epoch: %d, batch: %d, loss: %f, speed: %.2f step/s"% (global_step, epoch, step, avg_loss,args.logging_steps / (time.time() - tic_train)))tic_train = time.time()avg_loss.backward()optimizer.step()lr_scheduler.step()optimizer.clear_grad()if global_step % args.save_steps == 0 or global_step == last_step:if paddle.distributed.get_rank() == 0:evaluate(model, loss_fct, metric, test_data_loader,label_num)paddle.save(model.state_dict(),os.path.join(args.output_dir,"model_%d.pdparams" % global_step))args = Args() args.model_name_or_path = 'bert-wwm-ext-chinese' args.max_seq_length = 128 args.batch_size = 32 args.learning_rate = 2e-5 args.num_train_epochs = 3 args.logging_steps = 1 args.save_steps = 500 args.output_dir = '/home/aistudio/paddle-video-semantic-tag/data/checkpoints/semantic_tag' args.device = 'gpu' do_train(args)

In [4]

!ls /home/aistudio/paddle-video-semantic-tag/data/checkpoints/se* model_500.pdparams model_567.pdparams

2.3.4 生成語義標(biāo)簽結(jié)果

生成的識(shí)別結(jié)果存儲(chǔ)在./predict_results/ents_results.json。

In [5]

import argparse import os import sys import ast import random import time import math from functools import partial import json import codecs from tqdm import tqdmimport numpy as np import paddle from paddle.io import DataLoaderimport paddlenlp as ppnlp from paddlenlp.datasets import load_dataset from paddlenlp.data import Stack, Tuple, Pad, Dict from paddlenlp.transformers import BertForTokenClassification, BertTokenizersys.path.append('/home/aistudio/external-libraries')class Args():model_name_or_path = Noneoutput_dir = Nonemax_seq_length = 128batch_size = 8learning_rate = 5e-5weight_decay = 0.0adam_epsilon = 1e-8max_grad_norm = 1.0num_train_epochs = 3max_steps = -1warmup_steps = 0logging_steps = 1save_steps = 100seed = 42device = 'gpu'def tokenize_and_align_labels(example,tokenizer,no_entity_id,max_seq_len=512):labels = example['labels']example = example['tokens']tokenized_input = tokenizer(example,return_length=True,is_split_into_words=True,max_seq_len=max_seq_len)# -2 for [CLS] and [SEP]if len(tokenized_input['input_ids']) - 2 < len(labels):labels = labels[:len(tokenized_input['input_ids']) - 2]tokenized_input['labels'] = [no_entity_id] + labels + [no_entity_id]tokenized_input['labels'] += [no_entity_id] * (len(tokenized_input['input_ids']) - len(tokenized_input['labels']))return tokenized_inputdef parse_decodes(input_words, id2label, decodes, lens):decodes = [x for batch in decodes for x in batch]lens = [x for batch in lens for x in batch]outputs = []entities_list = []for idx, end in enumerate(lens):sent = "".join(input_words[idx]['tokens'])tags = [id2label[x] for x in decodes[idx][1:end]]sent_out = []tags_out = []words = ""for s, t in zip(sent, tags):if t.startswith('B-') or t == 'O':if len(words):sent_out.append(words)if t.startswith('B-'):tags_out.append(t.split('-')[1])else:tags_out.append(t)words = selse:words += sif len(sent_out) < len(tags_out):sent_out.append(words)outputs.append(''.join([str((s, t)) for s, t in zip(sent_out, tags_out)]))entities_list.append([s for s, t in zip(sent_out, tags_out) if t == "ENT"])return outputs, entities_listdef _read(data_file, label_map_file):with open(label_map_file, "r") as inf:tag2label = json.load(inf)with open(data_file, 'r', encoding='utf-8') as inf:for line in inf:line_stripped = line.strip().split('\t')assert len(line_stripped) == 2tokens = line_stripped[0].split("\002")tags = line_stripped[1].split("\002")labels = [tag2label[tag] for tag in tags]yield {"tokens": tokens, "labels": labels}def do_predict(args):paddle.set_device(args.device)# Create dataset, tokenizer and dataloader.train_ds = load_dataset(_read,data_file="/home/aistudio/paddle-video-semantic-tag/data/train.tsv",label_map_file="/home/aistudio/paddle-video-semantic-tag/data/label_map.json",lazy=False)predict_ds = load_dataset(_read,data_file="/home/aistudio/paddle-video-semantic-tag/data/test.tsv",label_map_file="/home/aistudio/paddle-video-semantic-tag/data/label_map.json",lazy=False)train_ds.label_list = predict_ds.label_list = ["B-ENT", "I-ENT", "O"]tokenizer = BertTokenizer.from_pretrained(args.model_name_or_path)label_list = train_ds.label_listlabel_num = len(label_list)no_entity_id = label_num - 1trans_func = partial(tokenize_and_align_labels,tokenizer=tokenizer,no_entity_id=no_entity_id,max_seq_len=args.max_seq_length)ignore_label = -100batchify_fn = lambda samples, fn=Dict({'input_ids': Pad(axis=0, pad_val=tokenizer.pad_token_id), # input'token_type_ids': Pad(axis=0, pad_val=tokenizer.pad_token_type_id), # segment'seq_len': Stack(),'labels': Pad(axis=0, pad_val=ignore_label) # label}): fn(samples)raw_data = predict_ds.dataid2label = dict(enumerate(predict_ds.label_list))predict_ds = predict_ds.map(trans_func)predict_data_loader = DataLoader(dataset=predict_ds,collate_fn=batchify_fn,num_workers=0,batch_size=args.batch_size,return_list=True)# Define the model networdmodel = BertForTokenClassification.from_pretrained(args.model_name_or_path, num_classes=label_num)if args.init_checkpoint_path:model_dict = paddle.load(args.init_checkpoint_path)model.set_dict(model_dict)model.eval()pred_list = []len_list = []for step, batch in tqdm(enumerate(predict_data_loader)):input_ids, token_type_ids, length, labels = batchlogits = model(input_ids, token_type_ids)pred = paddle.argmax(logits, axis=-1)pred_list.append(pred.numpy())len_list.append(length.numpy())preds, entities_list = parse_decodes(raw_data, id2label, pred_list,len_list)save_dir = "predict_results"if not os.path.isdir(save_dir):os.makedirs(save_dir)file_path = os.path.join(save_dir, "ner_results.txt")with open(file_path, "w", encoding="utf8") as fout:fout.write("\n".join(preds))# Print some examples# print(# "The results have been saved in the file: %s, some examples are shown below: "# % file_path)# print("\n".join(preds[:10]))with open("/home/aistudio/paddle-video-semantic-tag/data/nids.txt", "r") as inf:lines = inf.readlines()nid2ents = {}for entities, nid in zip(entities_list, lines):nid2ents[nid.strip()] = entitiessave_json = os.path.join(save_dir, "ents_results.json")with codecs.open(save_json, "w", encoding="utf-8") as ouf:json.dump(nid2ents, ouf, ensure_ascii=False)print("Saved " + save_json)args = Args() args.model_name_or_path = 'bert-wwm-ext-chinese' args.init_checkpoint_path = '/home/aistudio/paddle-video-semantic-tag/data/checkpoints/semantic_tag/model_567.pdparams' args.max_seq_length = 128 args.batch_size = 32 args.device = 'gpu'do_predict(args) [2022-04-29 02:13:12,761] [ INFO] - Found /home/aistudio/.paddlenlp/models/bert-wwm-ext-chinese/bert-wwm-ext-chinese-vocab.txt [2022-04-29 02:13:12,777] [ INFO] - Already cached /home/aistudio/.paddlenlp/models/bert-wwm-ext-chinese/bert-wwm-ext-chinese.pdparams 311it [00:13, 23.29it/s] Saved predict_results/ents_results.json

3. 結(jié)果文件生成和提交

運(yùn)行下列代碼后,將result.txt文件提交至比賽提交結(jié)果頁面即可。

In [6]

import os import os.path as osp import codecs import jsonclass Args():test_path = '/home/aistudio/dataset_sample/test_a.json'category_level1_result = '/home/aistudio/predict_results/level1_top1.json'category_level2_result = '/home/aistudio/predict_results/level2_top1.json'tag_result = '/home/aistudio/predict_results/ents_results.json'if __name__ == "__main__":args = Args()with codecs.open(args.test_path, "r", encoding="utf-8") as inf:print("Loading {}...".format(args.test_path))lines = inf.readlines()nids = [json.loads(line)["@id"] for line in lines]# load the prediction results of 'paddle-video-classify-tag' model on test-setwith codecs.open(args.category_level1_result, "r", encoding="utf-8") as inf:pred_level1 = json.load(inf)with codecs.open(args.category_level2_result, "r", encoding="utf-8") as inf:pred_level2 = json.load(inf)# load the prediction results of 'paddle-video-semantic-tag' model on test-setwith codecs.open(args.tag_result, "r", encoding="utf-8") as inf:pred_tags = json.load(inf)# merge results and generate an entry for each nid.submission_lines = []for nid in nids:level1_category = pred_level1[nid]["class_name"] \if nid in pred_level1 else ""level2_category = pred_level2[nid]["class_name"] \if nid in pred_level2 else ""tags = pred_tags[nid] if nid in pred_tags else []result = {"@id": nid,"category": [{"@meta": {"type": "level1"},"@value": level1_category},{"@meta": {"type": "level2"},"@value": level2_category},],"tag": [{"@value": tag} for tag in tags],}submission_lines.append(json.dumps(result, ensure_ascii=False) + "\n")with codecs.open("result.txt", "w", encoding="utf-8") as ouf:ouf.writelines(submission_lines)print("Saved result.txt") Loading /home/aistudio/dataset_sample/test_a.json... Saved result.txt

退出前務(wù)必執(zhí)行

運(yùn)行下列指令刪除臨時(shí)大文件,下次啟動(dòng)時(shí)重新生成,否則可能導(dǎo)致下次在線項(xiàng)目加載較慢。

In [7]

!rm -rf dataset_sample paddle-video-classify-tag paddle-video-semantic-tag predict_results tsn_features_test_a tsn_features_train_sample

請(qǐng)點(diǎn)擊此處查看本環(huán)境基本用法.
Please click?here?for more detailed instructions.

總結(jié)

以上是生活随笔為你收集整理的LIC 2022 视频语义理解基线(快速启动版)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

亚洲人成网站在线播放942 | 7777奇米四色成人眼影 | 永久免费精品精品永久-夜色 | 午夜精品一区二区三区在线观看 | 亚洲熟妇色xxxxx欧美老妇y | 漂亮人妻洗澡被公强 日日躁 | 黑人大群体交免费视频 | 久久久久亚洲精品男人的天堂 | а√天堂www在线天堂小说 | 国产成人精品必看 | 日产国产精品亚洲系列 | 亚洲日韩av一区二区三区中文 | 麻豆果冻传媒2021精品传媒一区下载 | 免费播放一区二区三区 | 丰满少妇女裸体bbw | 久久国语露脸国产精品电影 | 日日摸日日碰夜夜爽av | 国产精品资源一区二区 | 国产又爽又黄又刺激的视频 | 人妻插b视频一区二区三区 | 无码纯肉视频在线观看 | 亚洲区小说区激情区图片区 | 久久亚洲精品中文字幕无男同 | 日本熟妇大屁股人妻 | 日韩av无码中文无码电影 | 国产一区二区不卡老阿姨 | 亚洲码国产精品高潮在线 | 亚洲呦女专区 | 无码午夜成人1000部免费视频 | 久久久久免费精品国产 | 人人爽人人爽人人片av亚洲 | 国产免费无码一区二区视频 | 国产成人无码a区在线观看视频app | 国内精品一区二区三区不卡 | 乱人伦人妻中文字幕无码 | 99久久精品日本一区二区免费 | 97夜夜澡人人双人人人喊 | 亚洲热妇无码av在线播放 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 天天躁夜夜躁狠狠是什么心态 | 国产精品亚洲а∨无码播放麻豆 | 无码人妻出轨黑人中文字幕 | 国产电影无码午夜在线播放 | 正在播放东北夫妻内射 | 国产高潮视频在线观看 | 国产偷抇久久精品a片69 | 丁香花在线影院观看在线播放 | √天堂中文官网8在线 | 国产一区二区三区日韩精品 | 久久久成人毛片无码 | 一本久久a久久精品亚洲 | 免费人成在线视频无码 | 少妇一晚三次一区二区三区 | 国产亚洲精品久久久久久大师 | 亚洲国产高清在线观看视频 | 中文亚洲成a人片在线观看 | 强伦人妻一区二区三区视频18 | 国产欧美熟妇另类久久久 | 国产午夜亚洲精品不卡 | 3d动漫精品啪啪一区二区中 | 性欧美疯狂xxxxbbbb | 日本xxxx色视频在线观看免费 | 免费网站看v片在线18禁无码 | 精品亚洲成av人在线观看 | 午夜福利一区二区三区在线观看 | 精品无人区无码乱码毛片国产 | 久久久久国色av免费观看性色 | 无码精品人妻一区二区三区av | 少妇高潮喷潮久久久影院 | 亚洲乱码国产乱码精品精 | 久久久精品欧美一区二区免费 | 综合激情五月综合激情五月激情1 | 蜜臀av无码人妻精品 | 国产精品久久久久影院嫩草 | 亚洲欧洲日本综合aⅴ在线 | 无码国产色欲xxxxx视频 | 人人爽人人爽人人片av亚洲 | 成人精品视频一区二区 | 亚洲欧美精品伊人久久 | 强辱丰满人妻hd中文字幕 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产av一区二区精品久久凹凸 | 在线观看国产午夜福利片 | 无码人妻黑人中文字幕 | 1000部啪啪未满十八勿入下载 | 亚无码乱人伦一区二区 | 国产婷婷色一区二区三区在线 | 欧美日韩色另类综合 | 午夜福利不卡在线视频 | 国产成人无码a区在线观看视频app | 国产亚洲精品久久久久久国模美 | 久久五月精品中文字幕 | 在线精品国产一区二区三区 | 青青久在线视频免费观看 | 国产精品-区区久久久狼 | 午夜精品久久久久久久久 | 特级做a爰片毛片免费69 | 网友自拍区视频精品 | 国产艳妇av在线观看果冻传媒 | 中文字幕无线码免费人妻 | 国色天香社区在线视频 | 免费人成网站视频在线观看 | 少女韩国电视剧在线观看完整 | 日日天日日夜日日摸 | 纯爱无遮挡h肉动漫在线播放 | 人人妻人人澡人人爽欧美一区九九 | 亚洲国产精品一区二区美利坚 | 日产精品高潮呻吟av久久 | 亚洲日韩乱码中文无码蜜桃臀网站 | 丰满人妻翻云覆雨呻吟视频 | 狠狠cao日日穞夜夜穞av | 男人和女人高潮免费网站 | 午夜理论片yy44880影院 | 2020久久超碰国产精品最新 | 国产成人精品视频ⅴa片软件竹菊 | 亚洲精品久久久久久一区二区 | 国产亚洲精品久久久久久大师 | 乱人伦人妻中文字幕无码久久网 | 国产精品多人p群无码 | 欧美 日韩 亚洲 在线 | 双乳奶水饱满少妇呻吟 | 波多野结衣av在线观看 | 欧美人与禽猛交狂配 | 国产亚洲人成a在线v网站 | 日本乱人伦片中文三区 | 国产午夜视频在线观看 | 水蜜桃av无码 | 国产免费观看黄av片 | 国产av无码专区亚洲a∨毛片 | 精品一区二区三区无码免费视频 | 大乳丰满人妻中文字幕日本 | 日韩av无码一区二区三区不卡 | 久在线观看福利视频 | 色欲av亚洲一区无码少妇 | 亚洲国产精品无码久久久久高潮 | yw尤物av无码国产在线观看 | 高清不卡一区二区三区 | 18无码粉嫩小泬无套在线观看 | 亚洲小说图区综合在线 | 中文字幕乱妇无码av在线 | 日韩精品久久久肉伦网站 | 精品国产av色一区二区深夜久久 | 国产欧美熟妇另类久久久 | 成人性做爰aaa片免费看不忠 | 欧美老人巨大xxxx做受 | 国产麻豆精品精东影业av网站 | 日本欧美一区二区三区乱码 | 乌克兰少妇xxxx做受 | 精品偷自拍另类在线观看 | 久久伊人色av天堂九九小黄鸭 | 好男人社区资源 | 人人妻人人藻人人爽欧美一区 | 久久99精品久久久久久 | 国产美女极度色诱视频www | 国产两女互慰高潮视频在线观看 | 特级做a爰片毛片免费69 | 免费无码av一区二区 | 少妇被黑人到高潮喷出白浆 | 中文精品无码中文字幕无码专区 | 国产在热线精品视频 | 亚洲中文字幕无码一久久区 | 秋霞成人午夜鲁丝一区二区三区 | 国产成人无码av一区二区 | 荫蒂被男人添的好舒服爽免费视频 | 国产香蕉97碰碰久久人人 | 人妻天天爽夜夜爽一区二区 | 国内丰满熟女出轨videos | 日韩av无码一区二区三区不卡 | 日本www一道久久久免费榴莲 | 精品欧洲av无码一区二区三区 | 黑人巨大精品欧美黑寡妇 | 影音先锋中文字幕无码 | 欧美国产日韩久久mv | 亚洲一区av无码专区在线观看 | 日本丰满护士爆乳xxxx | 国产办公室秘书无码精品99 | 免费看少妇作爱视频 | 国产精品美女久久久 | 一个人免费观看的www视频 | 99久久亚洲精品无码毛片 | 日本大香伊一区二区三区 | 国产莉萝无码av在线播放 | 中文字幕+乱码+中文字幕一区 | 国产精品高潮呻吟av久久4虎 | 精品国产国产综合精品 | 麻豆精品国产精华精华液好用吗 | 亚洲色大成网站www | 日韩精品一区二区av在线 | 国产乱人伦av在线无码 | 一个人看的www免费视频在线观看 | 国产成人午夜福利在线播放 | 无码人妻少妇伦在线电影 | 国产亚洲精品久久久ai换 | 国产猛烈高潮尖叫视频免费 | 曰韩少妇内射免费播放 | 荫蒂添的好舒服视频囗交 | 精品偷拍一区二区三区在线看 | 色欲人妻aaaaaaa无码 | 国产内射爽爽大片视频社区在线 | 久久精品女人天堂av免费观看 | 日本精品久久久久中文字幕 | 成人欧美一区二区三区黑人 | 精品国产一区二区三区四区 | 乱人伦人妻中文字幕无码久久网 | 中文字幕av无码一区二区三区电影 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 奇米影视888欧美在线观看 | 免费视频欧美无人区码 | 久久伊人色av天堂九九小黄鸭 | 久久久亚洲欧洲日产国码αv | 亚洲国产精品一区二区美利坚 | 精品国产麻豆免费人成网站 | 国产农村妇女高潮大叫 | 色综合久久久无码网中文 | 无码人妻精品一区二区三区下载 | 在线播放亚洲第一字幕 | 蜜桃视频插满18在线观看 | 人妻少妇精品无码专区动漫 | 最近的中文字幕在线看视频 | 女高中生第一次破苞av | 无码一区二区三区在线 | 日本www一道久久久免费榴莲 | 精品久久久无码人妻字幂 | 久久久久se色偷偷亚洲精品av | 亚洲国产精品久久久天堂 | 欧美日韩人成综合在线播放 | 精品国产乱码久久久久乱码 | 欧美日韩综合一区二区三区 | 久久精品中文闷骚内射 | 国产成人精品视频ⅴa片软件竹菊 | 大肉大捧一进一出好爽视频 | 国产真实夫妇视频 | 日日橹狠狠爱欧美视频 | 青青久在线视频免费观看 | 成人无码视频免费播放 | 亚洲の无码国产の无码影院 | 国内丰满熟女出轨videos | 东京一本一道一二三区 | 无套内谢老熟女 | 久久亚洲国产成人精品性色 | 久久综合狠狠综合久久综合88 | 无码国内精品人妻少妇 | 久久精品99久久香蕉国产色戒 | 日韩人妻无码一区二区三区久久99 | 扒开双腿吃奶呻吟做受视频 | 免费观看的无遮挡av | 99久久精品日本一区二区免费 | 欧美午夜特黄aaaaaa片 | 日本大香伊一区二区三区 | 一个人看的www免费视频在线观看 | 国产精品福利视频导航 | 亚洲一区二区三区 | 国产精品久久久久久亚洲影视内衣 | 久久综合给合久久狠狠狠97色 | 麻豆国产人妻欲求不满 | 国产精品久久久久影院嫩草 | 理论片87福利理论电影 | 国产人妖乱国产精品人妖 | 亚洲欧洲日本综合aⅴ在线 | 久久无码专区国产精品s | 久久久亚洲欧洲日产国码αv | 久久久久久久女国产乱让韩 | 国产特级毛片aaaaaaa高清 | 亚洲国产精品久久人人爱 | 欧美丰满熟妇xxxx | 精品一区二区三区无码免费视频 | 亚洲精品成a人在线观看 | 日韩精品乱码av一区二区 | 亚洲乱码中文字幕在线 | 久久综合激激的五月天 | 久久国产精品精品国产色婷婷 | 老太婆性杂交欧美肥老太 | 亚洲国产精品美女久久久久 | 亚洲国精产品一二二线 | 久久久精品人妻久久影视 | 欧美野外疯狂做受xxxx高潮 | 麻豆国产97在线 | 欧洲 | 亚洲色大成网站www | 六月丁香婷婷色狠狠久久 | 男人和女人高潮免费网站 | 女高中生第一次破苞av | 国内综合精品午夜久久资源 | 国产成人无码av一区二区 | 日本大香伊一区二区三区 | 日日摸天天摸爽爽狠狠97 | 中文字幕乱码人妻二区三区 | 亚洲中文字幕久久无码 | 国产精品a成v人在线播放 | 国产精品人人妻人人爽 | 国产69精品久久久久app下载 | 啦啦啦www在线观看免费视频 | 亚洲一区二区三区四区 | 欧美精品免费观看二区 | 人人妻人人澡人人爽精品欧美 | 久久99精品国产麻豆 | 国产猛烈高潮尖叫视频免费 | 欧美性猛交内射兽交老熟妇 | 无码播放一区二区三区 | 初尝人妻少妇中文字幕 | 一区二区三区高清视频一 | 成人免费无码大片a毛片 | 装睡被陌生人摸出水好爽 | 大肉大捧一进一出视频出来呀 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 日本精品人妻无码77777 天堂一区人妻无码 | 亚洲 a v无 码免 费 成 人 a v | 无码纯肉视频在线观看 | 福利一区二区三区视频在线观看 | 超碰97人人射妻 | 精品国产一区二区三区av 性色 | 国产另类ts人妖一区二区 | 欧美自拍另类欧美综合图片区 | 国模大胆一区二区三区 | 久久人人爽人人爽人人片av高清 | 国内精品久久毛片一区二区 | 天天av天天av天天透 | 老子影院午夜伦不卡 | 亚洲无人区午夜福利码高清完整版 | 日本精品少妇一区二区三区 | 久久aⅴ免费观看 | 一本精品99久久精品77 | 丰满妇女强制高潮18xxxx | 国产精品a成v人在线播放 | 中文字幕无码av激情不卡 | 亚洲 高清 成人 动漫 | 精品 日韩 国产 欧美 视频 | 亚洲国产午夜精品理论片 | 亚洲 日韩 欧美 成人 在线观看 | 少妇无码av无码专区在线观看 | 无码国模国产在线观看 | 亚洲成熟女人毛毛耸耸多 | 国产特级毛片aaaaaa高潮流水 | 日韩欧美群交p片內射中文 | 国产va免费精品观看 | 人人妻在人人 | 西西人体www44rt大胆高清 | 国产精品办公室沙发 | 又湿又紧又大又爽a视频国产 | 领导边摸边吃奶边做爽在线观看 | 久久综合九色综合97网 | 久久国产精品_国产精品 | 国产精品沙发午睡系列 | 欧美放荡的少妇 | 久久99精品国产麻豆 | 国产内射老熟女aaaa | 特黄特色大片免费播放器图片 | 欧美国产日韩久久mv | 精品欧洲av无码一区二区三区 | 偷窥村妇洗澡毛毛多 | 免费国产黄网站在线观看 | 国产激情无码一区二区app | 成人动漫在线观看 | 狠狠亚洲超碰狼人久久 | 国内精品久久久久久中文字幕 | 少妇一晚三次一区二区三区 | 欧美人与禽猛交狂配 | 男女作爱免费网站 | 日韩亚洲欧美中文高清在线 | 国产av人人夜夜澡人人爽麻豆 | 任你躁国产自任一区二区三区 | 中文字幕乱码人妻无码久久 | 亚洲无人区午夜福利码高清完整版 | 中文字幕人成乱码熟女app | 妺妺窝人体色www婷婷 | 日本一区二区三区免费播放 | 亚洲第一无码av无码专区 | 久久精品国产99久久6动漫 | 人人妻人人澡人人爽精品欧美 | 欧美黑人乱大交 | 日韩少妇白浆无码系列 | 在线 国产 欧美 亚洲 天堂 | 日日鲁鲁鲁夜夜爽爽狠狠 | 欧美日韩久久久精品a片 | 国产av无码专区亚洲a∨毛片 | 久久国语露脸国产精品电影 | 人妻与老人中文字幕 | 亚洲人成影院在线无码按摩店 | 日本熟妇大屁股人妻 | 噜噜噜亚洲色成人网站 | 午夜性刺激在线视频免费 | 中文字幕人妻无码一区二区三区 | 少妇性l交大片欧洲热妇乱xxx | 亚洲精品成人av在线 | 夜精品a片一区二区三区无码白浆 | 国产精品人人爽人人做我的可爱 | 日本熟妇大屁股人妻 | 少妇一晚三次一区二区三区 | 国产在线aaa片一区二区99 | 国产成人av免费观看 | 国产精品18久久久久久麻辣 | 日日橹狠狠爱欧美视频 | 亚洲精品久久久久中文第一幕 | 精品无码国产一区二区三区av | 特黄特色大片免费播放器图片 | 亚洲s码欧洲m码国产av | 内射爽无广熟女亚洲 | 国产午夜手机精彩视频 | 亚洲成在人网站无码天堂 | 中文无码伦av中文字幕 | 巨爆乳无码视频在线观看 | 中国大陆精品视频xxxx | 少妇无码一区二区二三区 | 成人影院yy111111在线观看 | 国产精品美女久久久久av爽李琼 | 夜精品a片一区二区三区无码白浆 | 国产成人无码区免费内射一片色欲 | 欧美丰满熟妇xxxx性ppx人交 | 妺妺窝人体色www在线小说 | 亚洲精品国产a久久久久久 | 高清国产亚洲精品自在久久 | 亚洲综合久久一区二区 | 欧美猛少妇色xxxxx | 亚洲小说春色综合另类 | 亚洲成av人综合在线观看 | 精品国产av色一区二区深夜久久 | 日韩视频 中文字幕 视频一区 | 欧美丰满老熟妇xxxxx性 | 亚洲欧洲日本综合aⅴ在线 | 亚洲伊人久久精品影院 | 亚洲欧洲中文日韩av乱码 | 久久精品国产亚洲精品 | 欧美第一黄网免费网站 | 久久99精品国产麻豆蜜芽 | 国产麻豆精品一区二区三区v视界 | 无码人妻少妇伦在线电影 | 国产偷国产偷精品高清尤物 | 人妻少妇精品无码专区二区 | 亚洲色欲久久久综合网东京热 | 最近中文2019字幕第二页 | 色综合天天综合狠狠爱 | 5858s亚洲色大成网站www | 国产亚洲精品久久久久久国模美 | 又色又爽又黄的美女裸体网站 | 日产精品高潮呻吟av久久 | 久久精品人妻少妇一区二区三区 | 亚洲色欲色欲欲www在线 | 中文字幕无码免费久久9一区9 | 成人试看120秒体验区 | 亚洲精品国产精品乱码不卡 | 国产综合久久久久鬼色 | 成 人 网 站国产免费观看 | 在线观看国产一区二区三区 | 无码精品国产va在线观看dvd | 精品欧洲av无码一区二区三区 | 亚洲人成网站免费播放 | 福利一区二区三区视频在线观看 | 一本久道高清无码视频 | 好男人www社区 | 国产明星裸体无码xxxx视频 | 久久精品丝袜高跟鞋 | 亚洲爆乳大丰满无码专区 | 鲁大师影院在线观看 | 色婷婷久久一区二区三区麻豆 | 久精品国产欧美亚洲色aⅴ大片 | 久久久久久久女国产乱让韩 | 国产亚洲美女精品久久久2020 | 国产人妻久久精品二区三区老狼 | 澳门永久av免费网站 | 爆乳一区二区三区无码 | 天天躁夜夜躁狠狠是什么心态 | 2019nv天堂香蕉在线观看 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲春色在线视频 | 日本va欧美va欧美va精品 | 又紧又大又爽精品一区二区 | 久久熟妇人妻午夜寂寞影院 | 性色av无码免费一区二区三区 | 无码任你躁久久久久久久 | 97精品国产97久久久久久免费 | 亚洲精品午夜国产va久久成人 | 亚洲乱码日产精品bd | 亚洲综合久久一区二区 | 麻豆果冻传媒2021精品传媒一区下载 | 国产亚洲精品久久久久久 | 扒开双腿吃奶呻吟做受视频 | 婷婷六月久久综合丁香 | 日本乱偷人妻中文字幕 | 久久综合色之久久综合 | 亚洲成av人在线观看网址 | 国产精品丝袜黑色高跟鞋 | 欧美成人家庭影院 | 人妻夜夜爽天天爽三区 | 日韩精品乱码av一区二区 | 老子影院午夜伦不卡 | 久久午夜无码鲁丝片 | 亚洲欧美色中文字幕在线 | 国产内射老熟女aaaa | 亚拍精品一区二区三区探花 | 青青青爽视频在线观看 | 亚洲а∨天堂久久精品2021 | 国产人妻人伦精品1国产丝袜 | 无码人妻久久一区二区三区不卡 | 亚洲娇小与黑人巨大交 | 999久久久国产精品消防器材 | 无码av免费一区二区三区试看 | a国产一区二区免费入口 | 久久久久人妻一区精品色欧美 | 综合激情五月综合激情五月激情1 | 在线成人www免费观看视频 | 日日摸天天摸爽爽狠狠97 | 亚洲国产精品成人久久蜜臀 | 亚洲一区二区三区国产精华液 | 东京热男人av天堂 | 欧美野外疯狂做受xxxx高潮 | 欧美变态另类xxxx | 国产农村乱对白刺激视频 | 人妻与老人中文字幕 | 久久精品国产大片免费观看 | 免费观看又污又黄的网站 | 久久久国产精品无码免费专区 | 亚洲一区二区三区无码久久 | 大乳丰满人妻中文字幕日本 | www国产亚洲精品久久网站 | 99国产欧美久久久精品 | 精品国产麻豆免费人成网站 | 国产精品久久久久影院嫩草 | 久久99精品久久久久久动态图 | 久久99久久99精品中文字幕 | 无码乱肉视频免费大全合集 | 国产成人无码午夜视频在线观看 | a国产一区二区免费入口 | 国产在线精品一区二区高清不卡 | 人人爽人人澡人人人妻 | 内射白嫩少妇超碰 | 欧美熟妇另类久久久久久不卡 | 九九热爱视频精品 | 中文字幕无码免费久久9一区9 | 俄罗斯老熟妇色xxxx | 久久国产精品萌白酱免费 | 亚洲自偷精品视频自拍 | 欧美日韩一区二区综合 | 亚洲欧洲无卡二区视頻 | 亚洲乱码中文字幕在线 | 性啪啪chinese东北女人 | 欧美丰满老熟妇xxxxx性 | 女人被爽到呻吟gif动态图视看 | 欧美成人家庭影院 | 久久综合九色综合欧美狠狠 | 亚洲欧美日韩成人高清在线一区 | 免费无码的av片在线观看 | 成人精品天堂一区二区三区 | 午夜福利不卡在线视频 | 国内少妇偷人精品视频免费 | 一本久久a久久精品vr综合 | 久热国产vs视频在线观看 | 76少妇精品导航 | 精品午夜福利在线观看 | 国产亚洲人成a在线v网站 | 九月婷婷人人澡人人添人人爽 | 国产精品无码mv在线观看 | 国产精品久免费的黄网站 | 亚洲色大成网站www国产 | 国产内射爽爽大片视频社区在线 | 欧美zoozzooz性欧美 | 一二三四社区在线中文视频 | 久久综合狠狠综合久久综合88 | 夜夜躁日日躁狠狠久久av | 国产一区二区三区四区五区加勒比 | 久久久精品欧美一区二区免费 | 女人被男人爽到呻吟的视频 | 色婷婷香蕉在线一区二区 | 亚洲精品国产精品乱码不卡 | 少女韩国电视剧在线观看完整 | 亚洲男女内射在线播放 | 亚洲欧美国产精品久久 | 久久久久久亚洲精品a片成人 | 国精产品一品二品国精品69xx | 亚洲熟熟妇xxxx | 国产午夜手机精彩视频 | 精品久久久久香蕉网 | 欧美精品无码一区二区三区 | 欧美国产日产一区二区 | 精品 日韩 国产 欧美 视频 | 亚洲性无码av中文字幕 | 精品亚洲韩国一区二区三区 | 欧美精品无码一区二区三区 | 亚洲成av人综合在线观看 | 丝袜美腿亚洲一区二区 | √8天堂资源地址中文在线 | 无码人妻丰满熟妇区毛片18 | 丰满人妻一区二区三区免费视频 | 亚洲天堂2017无码中文 | 性生交片免费无码看人 | 欧美丰满老熟妇xxxxx性 | 亚洲日韩av片在线观看 | 88国产精品欧美一区二区三区 | 亚洲综合另类小说色区 | 无码午夜成人1000部免费视频 | 国产在线精品一区二区三区直播 | 久久aⅴ免费观看 | 婷婷综合久久中文字幕蜜桃三电影 | 四十如虎的丰满熟妇啪啪 | 久久精品人人做人人综合试看 | 国产精品久久久午夜夜伦鲁鲁 | 97人妻精品一区二区三区 | 国产av一区二区三区最新精品 | 婷婷丁香六月激情综合啪 | 欧美日韩一区二区三区自拍 | 欧美成人家庭影院 | 亚洲一区av无码专区在线观看 | 日日噜噜噜噜夜夜爽亚洲精品 | 国产成人精品久久亚洲高清不卡 | 人妻有码中文字幕在线 | 丰满岳乱妇在线观看中字无码 | 亚洲精品一区三区三区在线观看 | 中文字幕日韩精品一区二区三区 | 国产成人精品优优av | 在线观看免费人成视频 | 一本色道久久综合亚洲精品不卡 | 国产欧美熟妇另类久久久 | 亚洲国产高清在线观看视频 | 欧美日韩一区二区综合 | 2020久久超碰国产精品最新 | 中文字幕日韩精品一区二区三区 | 成人av无码一区二区三区 | 国产97人人超碰caoprom | 国产综合久久久久鬼色 | 黄网在线观看免费网站 | 久久99精品国产麻豆蜜芽 | 国产午夜福利100集发布 | 色综合久久久无码中文字幕 | 国产精品久久久久久久9999 | 四虎永久在线精品免费网址 | 国产麻豆精品一区二区三区v视界 | 曰本女人与公拘交酡免费视频 | 亚洲の无码国产の无码影院 | 亚洲欧洲日本无在线码 | 水蜜桃色314在线观看 | 国产成人精品优优av | 麻豆成人精品国产免费 | 久久亚洲日韩精品一区二区三区 | 亚洲综合在线一区二区三区 | 亚无码乱人伦一区二区 | 性色av无码免费一区二区三区 | 无码人妻少妇伦在线电影 | 天干天干啦夜天干天2017 | 国产精品无套呻吟在线 | 女高中生第一次破苞av | 亚洲日韩中文字幕在线播放 | 亚洲熟悉妇女xxx妇女av | 中文字幕乱码亚洲无线三区 | 亚洲爆乳大丰满无码专区 | 国产成人无码av一区二区 | 无码播放一区二区三区 | av在线亚洲欧洲日产一区二区 | 精品乱码久久久久久久 | 色一情一乱一伦一视频免费看 | 成人欧美一区二区三区黑人免费 | 国产精品va在线观看无码 | 青青青手机频在线观看 | 亚洲精品中文字幕 | 又湿又紧又大又爽a视频国产 | 国精产品一品二品国精品69xx | 欧美丰满老熟妇xxxxx性 | 又紧又大又爽精品一区二区 | 欧美日本免费一区二区三区 | 四虎国产精品一区二区 | 国产九九九九九九九a片 | 性色av无码免费一区二区三区 | 少妇激情av一区二区 | 国内老熟妇对白xxxxhd | 色偷偷人人澡人人爽人人模 | 免费中文字幕日韩欧美 | 51国偷自产一区二区三区 | 国产三级久久久精品麻豆三级 | 精品厕所偷拍各类美女tp嘘嘘 | 国产精品人妻一区二区三区四 | 国产成人无码a区在线观看视频app | 正在播放老肥熟妇露脸 | 欧美色就是色 | 久久久成人毛片无码 | 日韩av激情在线观看 | 精品无人区无码乱码毛片国产 | 久久99久久99精品中文字幕 | √天堂中文官网8在线 | 美女扒开屁股让男人桶 | 久久综合香蕉国产蜜臀av | 亚洲七七久久桃花影院 | 黑人粗大猛烈进出高潮视频 | 国产精品美女久久久 | 欧美熟妇另类久久久久久多毛 | 国产人成高清在线视频99最全资源 | 青春草在线视频免费观看 | 国产sm调教视频在线观看 | 欧美freesex黑人又粗又大 | 亚洲最大成人网站 | 欧美老人巨大xxxx做受 | 久久99热只有频精品8 | 中文精品无码中文字幕无码专区 | 亚洲国产精品成人久久蜜臀 | 国产精品第一国产精品 | 国产乱码精品一品二品 | 无码乱肉视频免费大全合集 | 国产在线精品一区二区三区直播 | 久久久久久国产精品无码下载 | 中文亚洲成a人片在线观看 | 精品人人妻人人澡人人爽人人 | 日日天干夜夜狠狠爱 | 亚欧洲精品在线视频免费观看 | 男女超爽视频免费播放 | 对白脏话肉麻粗话av | 国产亚洲精品久久久久久国模美 | 亚洲色无码一区二区三区 | 伊人久久大香线蕉午夜 | 亚洲欧洲中文日韩av乱码 | 人人爽人人澡人人高潮 | 中文字幕av日韩精品一区二区 | 婷婷丁香五月天综合东京热 | 特级做a爰片毛片免费69 | 捆绑白丝粉色jk震动捧喷白浆 | 在线播放无码字幕亚洲 | 丰满少妇高潮惨叫视频 | 精品久久综合1区2区3区激情 | 一个人看的视频www在线 | 在线天堂新版最新版在线8 | 国产精品内射视频免费 | 精品熟女少妇av免费观看 | 亚洲国产精品美女久久久久 | 精品久久8x国产免费观看 | 亚洲精品鲁一鲁一区二区三区 | 国产精品爱久久久久久久 | 欧美大屁股xxxxhd黑色 | 国产一区二区三区日韩精品 | 精品人人妻人人澡人人爽人人 | 亚洲精品www久久久 | 精品成人av一区二区三区 | 日韩成人一区二区三区在线观看 | 伊在人天堂亚洲香蕉精品区 | 图片小说视频一区二区 | 国产色在线 | 国产 | 国产精品久久久久久久9999 | 国产成人无码区免费内射一片色欲 | 青青青手机频在线观看 | 亚洲国产欧美日韩精品一区二区三区 | 久久亚洲国产成人精品性色 | 亚洲色欲久久久综合网东京热 | 国模大胆一区二区三区 | 中文毛片无遮挡高清免费 | 永久免费精品精品永久-夜色 | 久久久精品人妻久久影视 | 国产午夜亚洲精品不卡 | 精品久久久无码中文字幕 | 131美女爱做视频 | 精品无码国产自产拍在线观看蜜 | 日日摸天天摸爽爽狠狠97 | 国产一区二区三区四区五区加勒比 | 亚洲人成影院在线无码按摩店 | 精品国产乱码久久久久乱码 | 图片小说视频一区二区 | 乱人伦中文视频在线观看 | 日韩无套无码精品 | 日本一区二区更新不卡 | 疯狂三人交性欧美 | 久久无码专区国产精品s | 婷婷色婷婷开心五月四房播播 | 少妇久久久久久人妻无码 | 日韩亚洲欧美精品综合 | 少妇性l交大片欧洲热妇乱xxx | 中文字幕无码日韩欧毛 | 俺去俺来也在线www色官网 | 999久久久国产精品消防器材 | 男人扒开女人内裤强吻桶进去 | 国产免费无码一区二区视频 | 一个人看的www免费视频在线观看 | 国产做国产爱免费视频 | 爽爽影院免费观看 | 日韩精品乱码av一区二区 | 55夜色66夜色国产精品视频 | 欧美第一黄网免费网站 | 亚洲日本va午夜在线电影 | 99re在线播放 | 无码人妻av免费一区二区三区 | 国产一区二区三区四区五区加勒比 | 丰满护士巨好爽好大乳 | 亚洲の无码国产の无码影院 | 成 人 免费观看网站 | 影音先锋中文字幕无码 | 伊人久久大香线蕉av一区二区 | 欧美野外疯狂做受xxxx高潮 | 午夜无码人妻av大片色欲 | 亚洲熟妇色xxxxx亚洲 | 无码国模国产在线观看 | www国产精品内射老师 | 久久久久久久人妻无码中文字幕爆 | 少妇无码吹潮 | 亚洲色无码一区二区三区 | 国产舌乚八伦偷品w中 | 性色欲网站人妻丰满中文久久不卡 | 国产免费无码一区二区视频 | 国产美女精品一区二区三区 | 精品无码一区二区三区爱欲 | 国产熟妇另类久久久久 | 亚洲精品国产第一综合99久久 | 岛国片人妻三上悠亚 | 天干天干啦夜天干天2017 | 呦交小u女精品视频 | 国产69精品久久久久app下载 | 少妇性荡欲午夜性开放视频剧场 | 亚洲成av人片在线观看无码不卡 | 2020久久超碰国产精品最新 | 中文久久乱码一区二区 | 波多野结衣av在线观看 | 欧美午夜特黄aaaaaa片 | 女人被爽到呻吟gif动态图视看 | 小鲜肉自慰网站xnxx | 国产手机在线αⅴ片无码观看 | 国产乱人偷精品人妻a片 | 漂亮人妻洗澡被公强 日日躁 | 久久国产精品_国产精品 | yw尤物av无码国产在线观看 | 成年美女黄网站色大免费视频 | 麻豆md0077饥渴少妇 | 国产香蕉尹人综合在线观看 | 久久久www成人免费毛片 | 久久久久成人精品免费播放动漫 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 中文字幕亚洲情99在线 | 风流少妇按摩来高潮 | 国产日产欧产精品精品app | 国产成人精品视频ⅴa片软件竹菊 | 狠狠色噜噜狠狠狠狠7777米奇 | 97精品人妻一区二区三区香蕉 | 男女爱爱好爽视频免费看 | 亚洲人成人无码网www国产 | 精品国产乱码久久久久乱码 | 国产精品亚洲一区二区三区喷水 | 人人澡人人透人人爽 | 中文字幕人成乱码熟女app | 67194成是人免费无码 | 欧美怡红院免费全部视频 | 中文字幕色婷婷在线视频 | 亚洲精品国产精品乱码不卡 | 少女韩国电视剧在线观看完整 | 亚洲国产精品一区二区第一页 | 色综合天天综合狠狠爱 | 国产激情无码一区二区 | 亚洲a无码综合a国产av中文 | 波多野结衣aⅴ在线 | 久久久精品成人免费观看 | 2020久久香蕉国产线看观看 | 成 人影片 免费观看 | 亚洲阿v天堂在线 | а√资源新版在线天堂 | 草草网站影院白丝内射 | 色婷婷综合中文久久一本 | 国产成人综合色在线观看网站 | 亚洲国产精品久久久天堂 | 无码人妻黑人中文字幕 | 日韩人妻无码中文字幕视频 | 全球成人中文在线 | 乱人伦人妻中文字幕无码 | 久久久久99精品成人片 | 日日摸天天摸爽爽狠狠97 | 亚洲国产精品无码一区二区三区 | 日韩人妻无码中文字幕视频 | 久久久www成人免费毛片 | 亚洲va中文字幕无码久久不卡 | 激情内射日本一区二区三区 | 亚洲国产av精品一区二区蜜芽 | √天堂资源地址中文在线 | 国产精品嫩草久久久久 | 综合激情五月综合激情五月激情1 | 日日摸夜夜摸狠狠摸婷婷 | 国产亚洲视频中文字幕97精品 | 精品国偷自产在线视频 | 性史性农村dvd毛片 | 大肉大捧一进一出好爽视频 | 亚洲一区二区三区播放 | 亚洲狠狠色丁香婷婷综合 | 免费国产黄网站在线观看 | 国产av一区二区精品久久凹凸 | 麻豆国产人妻欲求不满谁演的 | aⅴ亚洲 日韩 色 图网站 播放 | 99久久婷婷国产综合精品青草免费 | 丰满少妇弄高潮了www | 国产人妻人伦精品 | 色婷婷久久一区二区三区麻豆 | 日本精品久久久久中文字幕 | 大肉大捧一进一出好爽视频 | 亚洲色欲色欲欲www在线 | 丰腴饱满的极品熟妇 | 色一情一乱一伦一视频免费看 | 日本一区二区三区免费播放 | 中文字幕乱码亚洲无线三区 | 中文精品久久久久人妻不卡 | 亚洲一区二区三区播放 | 国产在线无码精品电影网 | 夜精品a片一区二区三区无码白浆 | 国内老熟妇对白xxxxhd | 俄罗斯老熟妇色xxxx | 亚洲综合久久一区二区 | 欧美自拍另类欧美综合图片区 | 国产99久久精品一区二区 | 亚洲高清偷拍一区二区三区 | 久久综合香蕉国产蜜臀av | 日本精品人妻无码77777 天堂一区人妻无码 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲精品欧美二区三区中文字幕 | 大屁股大乳丰满人妻 | 正在播放东北夫妻内射 | 国产精品人妻一区二区三区四 | 水蜜桃色314在线观看 | 未满成年国产在线观看 | 久精品国产欧美亚洲色aⅴ大片 | 婷婷五月综合缴情在线视频 | 欧美老妇与禽交 | 免费视频欧美无人区码 | 噜噜噜亚洲色成人网站 | 宝宝好涨水快流出来免费视频 | 国产精品-区区久久久狼 | 奇米影视7777久久精品人人爽 | 午夜福利试看120秒体验区 | 99麻豆久久久国产精品免费 | 国产美女精品一区二区三区 | 国产精品成人av在线观看 | 亚洲国产日韩a在线播放 | 欧美人与善在线com | 精品国产精品久久一区免费式 | 欧洲极品少妇 | 国产免费无码一区二区视频 | 中文无码精品a∨在线观看不卡 | 久久天天躁夜夜躁狠狠 | 亚洲精品午夜国产va久久成人 | 国产免费久久精品国产传媒 | 久久亚洲a片com人成 | 人妻天天爽夜夜爽一区二区 | 国产精品沙发午睡系列 | 亚洲欧洲日本无在线码 | 麻豆蜜桃av蜜臀av色欲av | 国产精品久久久久久亚洲毛片 | 国产精品永久免费视频 | 狠狠综合久久久久综合网 | 中国女人内谢69xxxxxa片 | 少妇久久久久久人妻无码 | 中文精品无码中文字幕无码专区 | 婷婷五月综合缴情在线视频 | 少妇无码一区二区二三区 | 性史性农村dvd毛片 | а天堂中文在线官网 | 偷窥村妇洗澡毛毛多 | 国产人成高清在线视频99最全资源 | 久久熟妇人妻午夜寂寞影院 | 好男人社区资源 | 男女爱爱好爽视频免费看 | 国产另类ts人妖一区二区 | 夜夜高潮次次欢爽av女 | 国产精品美女久久久 | 九月婷婷人人澡人人添人人爽 | 鲁大师影院在线观看 | 久久精品99久久香蕉国产色戒 | 亚洲午夜福利在线观看 | 大胆欧美熟妇xx | 啦啦啦www在线观看免费视频 | 国产两女互慰高潮视频在线观看 | 亚洲爆乳精品无码一区二区三区 | 性色av无码免费一区二区三区 | 色五月丁香五月综合五月 | 无码乱肉视频免费大全合集 | 六十路熟妇乱子伦 | 少妇久久久久久人妻无码 | 亚洲男人av香蕉爽爽爽爽 | 色情久久久av熟女人妻网站 | 夫妻免费无码v看片 | 欧美国产日产一区二区 | 亚洲国产成人a精品不卡在线 | 对白脏话肉麻粗话av | 日本大乳高潮视频在线观看 | 好屌草这里只有精品 | 青草视频在线播放 | 久久久av男人的天堂 | 欧美日韩久久久精品a片 | 又大又硬又黄的免费视频 | 少妇久久久久久人妻无码 | 兔费看少妇性l交大片免费 | 亚洲中文字幕在线无码一区二区 | 少妇人妻大乳在线视频 | 精品欧洲av无码一区二区三区 | 亚洲综合另类小说色区 | 国产av无码专区亚洲a∨毛片 | 永久免费精品精品永久-夜色 | 乱人伦人妻中文字幕无码久久网 | a国产一区二区免费入口 | 波多野结衣av一区二区全免费观看 | 日本va欧美va欧美va精品 | 日韩成人一区二区三区在线观看 | 免费无码的av片在线观看 | 国产熟妇高潮叫床视频播放 | 国产乱人无码伦av在线a | 人妻有码中文字幕在线 | 国产又粗又硬又大爽黄老大爷视 | 亚洲国产欧美日韩精品一区二区三区 | 少妇高潮一区二区三区99 | 影音先锋中文字幕无码 | 欧美亚洲日韩国产人成在线播放 | 亚洲а∨天堂久久精品2021 | 欧美老人巨大xxxx做受 | 国产69精品久久久久app下载 | √8天堂资源地址中文在线 | 久久婷婷五月综合色国产香蕉 | 成人三级无码视频在线观看 | 波多野结衣高清一区二区三区 | 成人一在线视频日韩国产 | 狂野欧美性猛交免费视频 | 少妇性俱乐部纵欲狂欢电影 | 国产精品亚洲五月天高清 | 亚洲国产成人a精品不卡在线 | 人人澡人人透人人爽 | 欧洲vodafone精品性 | 精品人妻中文字幕有码在线 | 97资源共享在线视频 | 精品无码国产自产拍在线观看蜜 | 我要看www免费看插插视频 | 色综合天天综合狠狠爱 | 人妻少妇精品视频专区 | 中文字幕无码乱人伦 | 国产人妻精品午夜福利免费 | 国产免费久久久久久无码 | 麻花豆传媒剧国产免费mv在线 | 国产精品久久久午夜夜伦鲁鲁 | 色一情一乱一伦一区二区三欧美 | 成熟女人特级毛片www免费 | 亚洲爆乳精品无码一区二区三区 | 一本精品99久久精品77 | 在线播放免费人成毛片乱码 | 久久亚洲a片com人成 | 亚洲精品综合五月久久小说 | 1000部啪啪未满十八勿入下载 | 国产成人一区二区三区在线观看 | 国产偷国产偷精品高清尤物 | 免费乱码人妻系列无码专区 | 久久久久亚洲精品中文字幕 | 麻豆国产人妻欲求不满 | 国产成人精品久久亚洲高清不卡 | 久久综合狠狠综合久久综合88 | 欧美国产日韩久久mv | 无码人妻av免费一区二区三区 | 欧美丰满少妇xxxx性 | 国产色视频一区二区三区 | 国产人妖乱国产精品人妖 | 国产精品手机免费 | 久久国语露脸国产精品电影 | 久久综合给合久久狠狠狠97色 | 色婷婷综合中文久久一本 | 2019午夜福利不卡片在线 | 国产亚洲精品久久久久久 | 久久综合香蕉国产蜜臀av | 亚洲色www成人永久网址 | 一区二区三区乱码在线 | 欧洲 | 无人区乱码一区二区三区 | 欧美激情综合亚洲一二区 | 无码人妻丰满熟妇区五十路百度 | 亚洲精品综合五月久久小说 | 国精产品一品二品国精品69xx | 精品熟女少妇av免费观看 | 精品国产一区二区三区四区在线看 | 亚洲а∨天堂久久精品2021 | 妺妺窝人体色www在线小说 | 国产精品a成v人在线播放 | 久久精品人人做人人综合 | 日本熟妇大屁股人妻 | 亚洲国产欧美日韩精品一区二区三区 | 国产高清av在线播放 | 久久久婷婷五月亚洲97号色 | 性做久久久久久久久 | 97无码免费人妻超级碰碰夜夜 | 午夜无码人妻av大片色欲 | 欧美熟妇另类久久久久久不卡 | 国产精品丝袜黑色高跟鞋 | 强辱丰满人妻hd中文字幕 | 国产精品久久久久影院嫩草 | 55夜色66夜色国产精品视频 | 精品aⅴ一区二区三区 | 激情五月综合色婷婷一区二区 | 亚洲综合在线一区二区三区 | 国产成人无码av一区二区 | 欧美三级a做爰在线观看 | 伊人久久大香线蕉av一区二区 | 曰韩少妇内射免费播放 | 国产亚洲精品精品国产亚洲综合 | 丝袜美腿亚洲一区二区 | 日韩少妇内射免费播放 | 国产精品人妻一区二区三区四 | 国产精品美女久久久 | 精品国产成人一区二区三区 | 曰韩无码二三区中文字幕 | 日韩亚洲欧美中文高清在线 | 中文字幕中文有码在线 | 亚洲精品中文字幕 | 特黄特色大片免费播放器图片 | 老子影院午夜精品无码 | 中文字幕无码免费久久9一区9 | 国产成人综合美国十次 | 久久久成人毛片无码 | 国产精品香蕉在线观看 | 成人免费视频在线观看 | 亚洲人成无码网www | 麻豆国产人妻欲求不满 | 国产成人无码av一区二区 | 牲欲强的熟妇农村老妇女视频 | 免费看男女做好爽好硬视频 | 无码国产色欲xxxxx视频 | 亚洲欧美色中文字幕在线 | 领导边摸边吃奶边做爽在线观看 | 六月丁香婷婷色狠狠久久 | 老熟女重囗味hdxx69 | 三上悠亚人妻中文字幕在线 | 精品久久久无码人妻字幂 | 婷婷丁香六月激情综合啪 | 国产网红无码精品视频 | 色婷婷av一区二区三区之红樱桃 | 99久久亚洲精品无码毛片 | 老司机亚洲精品影院无码 | 成人性做爰aaa片免费看不忠 | 日本乱人伦片中文三区 | 99在线 | 亚洲 | 国产亚洲精品精品国产亚洲综合 | 精品国产一区二区三区四区 | 久久久久免费看成人影片 | 蜜桃视频插满18在线观看 | 亚洲aⅴ无码成人网站国产app | 亚洲欧美日韩综合久久久 | 18禁黄网站男男禁片免费观看 | 久久精品国产亚洲精品 | 领导边摸边吃奶边做爽在线观看 | 亚洲中文字幕va福利 | 香港三级日本三级妇三级 | 人人妻人人澡人人爽精品欧美 | 中文字幕乱妇无码av在线 | 亚洲精品一区二区三区大桥未久 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲精品久久久久久久久久久 | 乌克兰少妇性做爰 | 中文字幕日韩精品一区二区三区 | 国产69精品久久久久app下载 | 99精品视频在线观看免费 | 国产精品亚洲lv粉色 | 人妻少妇精品无码专区动漫 | 欧美老人巨大xxxx做受 | 国产精品亚洲专区无码不卡 | 骚片av蜜桃精品一区 | 久久综合久久自在自线精品自 | 人妻无码αv中文字幕久久琪琪布 | 男人扒开女人内裤强吻桶进去 | 无码帝国www无码专区色综合 | 人人澡人人妻人人爽人人蜜桃 | 精品一区二区三区波多野结衣 | 国产精品美女久久久久av爽李琼 | 亚洲一区二区观看播放 | 无码福利日韩神码福利片 | 蜜桃视频插满18在线观看 | 国产精品久久久久7777 | 亚洲s码欧洲m码国产av | 国产性生交xxxxx无码 | 美女扒开屁股让男人桶 | 精品一区二区三区无码免费视频 | 人人爽人人澡人人人妻 | 99精品视频在线观看免费 | 亚洲国产欧美国产综合一区 | 色诱久久久久综合网ywww | 人人妻人人澡人人爽欧美一区 | 免费人成在线视频无码 | 欧美猛少妇色xxxxx | 成人aaa片一区国产精品 | 偷窥日本少妇撒尿chinese | 欧美性黑人极品hd | 国产在线精品一区二区三区直播 | 久久精品国产99精品亚洲 | 丰满少妇高潮惨叫视频 | 性生交片免费无码看人 | 两性色午夜视频免费播放 | 精品亚洲韩国一区二区三区 | 国产又爽又猛又粗的视频a片 | 男人的天堂av网站 | 精品国产成人一区二区三区 | √天堂中文官网8在线 | 樱花草在线社区www | 国产亚洲精品精品国产亚洲综合 | 亚洲人交乣女bbw | 欧洲极品少妇 | 国产无套粉嫩白浆在线 | 成人毛片一区二区 | 国产sm调教视频在线观看 | 黑人巨大精品欧美一区二区 | 久久人妻内射无码一区三区 | 在线播放亚洲第一字幕 | 国产成人无码av在线影院 | 久9re热视频这里只有精品 | 夜精品a片一区二区三区无码白浆 | www成人国产高清内射 | 国产在线一区二区三区四区五区 | 亚洲色欲色欲欲www在线 | 亚洲精品国产品国语在线观看 | 中文字幕无码免费久久99 | 大肉大捧一进一出好爽视频 | 精品无码一区二区三区爱欲 | 久青草影院在线观看国产 | 国产莉萝无码av在线播放 | 国产超级va在线观看视频 | 无码av最新清无码专区吞精 | 任你躁国产自任一区二区三区 | 欧美性生交xxxxx久久久 | 亚洲国产欧美国产综合一区 | 欧美日韩一区二区三区自拍 | 婷婷丁香五月天综合东京热 | 国产亚洲精品久久久久久国模美 | 午夜性刺激在线视频免费 | 男女爱爱好爽视频免费看 | 精品国产国产综合精品 | 欧美成人午夜精品久久久 | 波多野结衣乳巨码无在线观看 | 亚洲精品国产精品乱码视色 | 美女张开腿让人桶 | 麻豆果冻传媒2021精品传媒一区下载 | 300部国产真实乱 | 中文无码成人免费视频在线观看 | 精品日本一区二区三区在线观看 | 国产高清不卡无码视频 | 亚洲色欲久久久综合网东京热 | 亚洲精品久久久久中文第一幕 | 中文字幕无码av波多野吉衣 | 无码av最新清无码专区吞精 | 久久天天躁夜夜躁狠狠 | 东京热无码av男人的天堂 | 毛片内射-百度 | 呦交小u女精品视频 | 国产精品va在线播放 | 青青久在线视频免费观看 | 亚洲一区二区三区四区 | 女人被爽到呻吟gif动态图视看 | 亚洲欧美日韩成人高清在线一区 | 久久99精品国产麻豆 | 国色天香社区在线视频 | 乱码午夜-极国产极内射 | 国产偷自视频区视频 | av无码电影一区二区三区 | 婷婷五月综合缴情在线视频 | 黄网在线观看免费网站 | 国产热a欧美热a在线视频 | 国产97人人超碰caoprom | 国产午夜视频在线观看 | 亚洲综合无码久久精品综合 | 国产精品成人av在线观看 | 精品国偷自产在线 | 欧美xxxxx精品 | 成人欧美一区二区三区黑人免费 | 一本久道高清无码视频 | 国产在线无码精品电影网 | 久久精品人人做人人综合试看 | 亚洲va中文字幕无码久久不卡 | 国产色在线 | 国产 | 久久久久久久女国产乱让韩 | 国产精品理论片在线观看 | 国产精品多人p群无码 | 无码av中文字幕免费放 | 激情综合激情五月俺也去 | 久久午夜无码鲁丝片秋霞 | a国产一区二区免费入口 | 丁香花在线影院观看在线播放 | 亚洲日韩一区二区三区 | 亚洲理论电影在线观看 | 日日天干夜夜狠狠爱 | 成在人线av无码免费 | 精品一区二区不卡无码av | 少妇太爽了在线观看 | 欧美激情一区二区三区成人 | 精品熟女少妇av免费观看 | 亚洲国产成人av在线观看 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产内射老熟女aaaa | 国产熟妇另类久久久久 | 波多野结衣 黑人 | 成在人线av无码免费 | 一个人看的www免费视频在线观看 | 久久 国产 尿 小便 嘘嘘 | 午夜无码区在线观看 | 国产av人人夜夜澡人人爽麻豆 | 亚洲日韩一区二区 | 国产肉丝袜在线观看 | 狠狠cao日日穞夜夜穞av | 久久亚洲国产成人精品性色 | 美女毛片一区二区三区四区 | 国产午夜福利100集发布 | 亚洲综合无码久久精品综合 | 97久久超碰中文字幕 | 亚洲人成网站在线播放942 | 亚洲码国产精品高潮在线 | 曰本女人与公拘交酡免费视频 | 亚洲精品无码人妻无码 | 婷婷六月久久综合丁香 | 婷婷五月综合缴情在线视频 | 狂野欧美性猛交免费视频 | 日本www一道久久久免费榴莲 | 中文无码成人免费视频在线观看 | 999久久久国产精品消防器材 | 丁香啪啪综合成人亚洲 | 亚洲一区二区三区国产精华液 | 国产色在线 | 国产 | 国产在线精品一区二区三区直播 | 亚洲成av人影院在线观看 | 久久国内精品自在自线 | 欧美老熟妇乱xxxxx | 99久久久无码国产精品免费 | 欧美高清在线精品一区 | 麻豆国产人妻欲求不满 | 免费人成在线观看网站 | 亚洲色欲色欲天天天www | yw尤物av无码国产在线观看 | 极品尤物被啪到呻吟喷水 | 精品一区二区不卡无码av | 亚洲国产精品久久人人爱 | 99久久精品日本一区二区免费 | 国产精品无套呻吟在线 | 少妇太爽了在线观看 | 熟妇人妻激情偷爽文 | 国产办公室秘书无码精品99 | 久久精品女人的天堂av | 欧美日韩一区二区综合 | 欧美日韩视频无码一区二区三 | 日日碰狠狠丁香久燥 | 国产精品-区区久久久狼 | 377p欧洲日本亚洲大胆 | 131美女爱做视频 | 成人免费无码大片a毛片 | a在线亚洲男人的天堂 | 又大又硬又爽免费视频 | 日韩人妻系列无码专区 | 午夜嘿嘿嘿影院 | 国内精品九九久久久精品 | 国产特级毛片aaaaaaa高清 | 亚洲国精产品一二二线 | 澳门永久av免费网站 | 清纯唯美经典一区二区 | 无码人妻丰满熟妇区五十路百度 | 国产欧美精品一区二区三区 | 日本一卡2卡3卡四卡精品网站 | 野狼第一精品社区 | 在线播放无码字幕亚洲 | 国产午夜无码精品免费看 | 国产美女精品一区二区三区 | 国产口爆吞精在线视频 | 欧美xxxx黑人又粗又长 | 粉嫩少妇内射浓精videos | 国产精品怡红院永久免费 | 偷窥日本少妇撒尿chinese | 亚洲人成网站色7799 | 久久综合给久久狠狠97色 | 国産精品久久久久久久 | 国产成人综合色在线观看网站 | 99精品无人区乱码1区2区3区 | 亚洲精品综合五月久久小说 | 国产人妻人伦精品 | 男女下面进入的视频免费午夜 | 荫蒂被男人添的好舒服爽免费视频 | 国产乱子伦视频在线播放 | 国产两女互慰高潮视频在线观看 | 国产人妻人伦精品 | 亚洲а∨天堂久久精品2021 | 国产人妖乱国产精品人妖 | 国产电影无码午夜在线播放 | 无码人妻丰满熟妇区毛片18 | 中文字幕无码日韩欧毛 | 亚洲精品国产品国语在线观看 | 纯爱无遮挡h肉动漫在线播放 | 精品乱子伦一区二区三区 | 性做久久久久久久久 | 野狼第一精品社区 | 97久久超碰中文字幕 | 国产香蕉尹人综合在线观看 | 午夜无码人妻av大片色欲 | 欧美激情综合亚洲一二区 | 国产成人无码一二三区视频 | 亚洲色偷偷偷综合网 | 亚洲日韩av一区二区三区中文 | 天天拍夜夜添久久精品大 | 亚洲欧美日韩成人高清在线一区 | 国产一区二区三区日韩精品 | 中文字幕乱码亚洲无线三区 | 色一情一乱一伦一区二区三欧美 | 福利一区二区三区视频在线观看 | 国产凸凹视频一区二区 | 在线观看免费人成视频 | 国产麻豆精品一区二区三区v视界 | 亚洲无人区一区二区三区 | 成人影院yy111111在线观看 | 夜夜高潮次次欢爽av女 | 无码人中文字幕 | 中文字幕亚洲情99在线 | 亚洲精品综合五月久久小说 | 久久久国产一区二区三区 | 国产后入清纯学生妹 | 熟妇人妻激情偷爽文 | 国产另类ts人妖一区二区 | 亚洲欧洲无卡二区视頻 | 在线播放免费人成毛片乱码 | 亚洲另类伦春色综合小说 | 精品厕所偷拍各类美女tp嘘嘘 | 欧美性生交活xxxxxdddd | 亚洲精品久久久久久久久久久 | 99国产精品白浆在线观看免费 | 国产后入清纯学生妹 | 精品国产成人一区二区三区 | 亚洲精品无码人妻无码 | 国产绳艺sm调教室论坛 | 人人妻人人澡人人爽人人精品浪潮 | 装睡被陌生人摸出水好爽 | 国产艳妇av在线观看果冻传媒 | 高清国产亚洲精品自在久久 | 亚洲精品中文字幕 | 美女黄网站人色视频免费国产 | 亚洲精品国偷拍自产在线麻豆 | 国产免费久久久久久无码 | 玩弄中年熟妇正在播放 | 国产亚洲精品久久久久久久 | 欧美zoozzooz性欧美 | 人人超人人超碰超国产 | 亚洲呦女专区 | 国产莉萝无码av在线播放 | 日日干夜夜干 | 国产乱人偷精品人妻a片 | 国产精品人妻一区二区三区四 | 精品偷自拍另类在线观看 | 成人亚洲精品久久久久软件 | 女人和拘做爰正片视频 | 俺去俺来也www色官网 | 欧美成人免费全部网站 | 丰满人妻一区二区三区免费视频 | 国产成人精品优优av | 久久久久成人精品免费播放动漫 | 人人澡人人妻人人爽人人蜜桃 | 岛国片人妻三上悠亚 | 色综合久久网 | 激情爆乳一区二区三区 | 狂野欧美性猛xxxx乱大交 | 夜夜躁日日躁狠狠久久av | 18黄暴禁片在线观看 | 97色伦图片97综合影院 | 少妇被粗大的猛进出69影院 | 亚洲阿v天堂在线 | 综合网日日天干夜夜久久 | 欧美丰满熟妇xxxx性ppx人交 | 一区二区传媒有限公司 | 精品成人av一区二区三区 | 女人高潮内射99精品 | 鲁大师影院在线观看 | 国产人妻大战黑人第1集 | 免费人成网站视频在线观看 | 国产精品-区区久久久狼 | 欧美肥老太牲交大战 | 久久精品女人的天堂av | 麻豆成人精品国产免费 | 中文字幕精品av一区二区五区 | 国产精品99久久精品爆乳 | 精品久久久无码人妻字幂 | 无码人妻丰满熟妇区五十路百度 | 中文字幕av日韩精品一区二区 | 性色欲网站人妻丰满中文久久不卡 | 无码福利日韩神码福利片 | 久久午夜无码鲁丝片午夜精品 | 成人无码视频免费播放 | 免费看少妇作爱视频 | 精品国产一区二区三区四区在线看 | 久久婷婷五月综合色国产香蕉 | 国产精品无码一区二区桃花视频 | 欧美丰满熟妇xxxx性ppx人交 | 欧洲欧美人成视频在线 | 在教室伦流澡到高潮hnp视频 | 人妻无码久久精品人妻 | 领导边摸边吃奶边做爽在线观看 | 色 综合 欧美 亚洲 国产 | 欧美性猛交xxxx富婆 | 国产情侣作爱视频免费观看 | 老子影院午夜伦不卡 | 日本大乳高潮视频在线观看 | 377p欧洲日本亚洲大胆 | 丁香花在线影院观看在线播放 | 亚洲精品国产第一综合99久久 | 亚洲无人区一区二区三区 | 在线播放免费人成毛片乱码 | 精品国产青草久久久久福利 | 性做久久久久久久免费看 | 久久精品99久久香蕉国产色戒 | 日韩精品无码免费一区二区三区 | 亚洲国产一区二区三区在线观看 | 国产精品99久久精品爆乳 | 一本无码人妻在中文字幕免费 | 扒开双腿疯狂进出爽爽爽视频 | 国产精品久久福利网站 | 欧美丰满老熟妇xxxxx性 | 亚洲啪av永久无码精品放毛片 | 亚洲国产精品无码一区二区三区 | 亚洲精品成人福利网站 | 综合激情五月综合激情五月激情1 | 久久午夜无码鲁丝片 | 蜜臀aⅴ国产精品久久久国产老师 | 纯爱无遮挡h肉动漫在线播放 | 波多野结衣av一区二区全免费观看 | 日本精品人妻无码77777 天堂一区人妻无码 | 久久久精品国产sm最大网站 | av人摸人人人澡人人超碰下载 | 亚洲日韩av一区二区三区四区 | 成人无码影片精品久久久 | а√天堂www在线天堂小说 | 亚洲国产欧美日韩精品一区二区三区 | 国产在线精品一区二区三区直播 | 欧美性黑人极品hd | 亚洲热妇无码av在线播放 | 亚洲成av人片在线观看无码不卡 | www国产精品内射老师 | 骚片av蜜桃精品一区 | 中文字幕乱妇无码av在线 | 国产内射爽爽大片视频社区在线 | 亚洲色大成网站www国产 | 精品国产一区二区三区四区 | 亚洲乱码中文字幕在线 | 日韩av无码中文无码电影 | 亚洲欧美日韩综合久久久 | 性史性农村dvd毛片 | 永久免费精品精品永久-夜色 | 国产人妻精品午夜福利免费 | 97久久超碰中文字幕 | 午夜福利不卡在线视频 | 亚洲精品国产品国语在线观看 | 少妇性俱乐部纵欲狂欢电影 | 99久久久国产精品无码免费 | 18精品久久久无码午夜福利 | 国产精品久免费的黄网站 | 亚洲日韩av一区二区三区四区 | 激情综合激情五月俺也去 | 亚洲の无码国产の无码步美 | 玩弄人妻少妇500系列视频 | 无码一区二区三区在线 | 国产亚洲精品久久久久久大师 | 无码av岛国片在线播放 | 国产色视频一区二区三区 | 欧美人与禽zoz0性伦交 | 久久综合九色综合欧美狠狠 | 欧美精品免费观看二区 | 欧美精品免费观看二区 | 日本乱人伦片中文三区 | 特级做a爰片毛片免费69 | 国产女主播喷水视频在线观看 | 久久久精品人妻久久影视 | 欧美性生交xxxxx久久久 | 国产麻豆精品一区二区三区v视界 | 免费人成网站视频在线观看 | 国产亚洲视频中文字幕97精品 | 97精品人妻一区二区三区香蕉 | 亚洲人成影院在线观看 | 国产精品亚洲а∨无码播放麻豆 | 久久五月精品中文字幕 | 日日干夜夜干 | 国产精品沙发午睡系列 | 亚洲日本va午夜在线电影 | 鲁大师影院在线观看 | 日日鲁鲁鲁夜夜爽爽狠狠 | 日产国产精品亚洲系列 | 99久久无码一区人妻 | 国产高清av在线播放 | 精品久久8x国产免费观看 | 永久黄网站色视频免费直播 | 日本xxxx色视频在线观看免费 | 成人免费视频一区二区 | av无码久久久久不卡免费网站 | 久久精品人人做人人综合 | av无码久久久久不卡免费网站 | 人人妻人人澡人人爽欧美精品 | 亚洲一区二区三区含羞草 | 国产人妻人伦精品1国产丝袜 | av人摸人人人澡人人超碰下载 | 婷婷五月综合缴情在线视频 | 欧美日韩一区二区综合 | 永久免费观看国产裸体美女 | 东京一本一道一二三区 | 人人超人人超碰超国产 | 丰满护士巨好爽好大乳 | 国产香蕉尹人综合在线观看 | 在线观看免费人成视频 | 牲交欧美兽交欧美 | 中文字幕无码热在线视频 | 无码国模国产在线观看 | 国产成人精品视频ⅴa片软件竹菊 | 欧美丰满熟妇xxxx | 性啪啪chinese东北女人 | 久久天天躁夜夜躁狠狠 | 久激情内射婷内射蜜桃人妖 | 亚洲人成网站在线播放942 | 中文字幕人妻无码一区二区三区 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 国产又粗又硬又大爽黄老大爷视 | 国产在线精品一区二区高清不卡 | 国色天香社区在线视频 | 日韩亚洲欧美中文高清在线 | 免费无码午夜福利片69 | 国产在线aaa片一区二区99 | 日韩欧美中文字幕公布 | 国产疯狂伦交大片 | 国内综合精品午夜久久资源 | 日韩少妇内射免费播放 | 亚洲s色大片在线观看 | 一本精品99久久精品77 | 国产suv精品一区二区五 | 午夜丰满少妇性开放视频 | 久久久婷婷五月亚洲97号色 | 无码人妻少妇伦在线电影 | 国内精品久久毛片一区二区 | 六月丁香婷婷色狠狠久久 | 偷窥日本少妇撒尿chinese | www国产精品内射老师 | 无码人妻av免费一区二区三区 | 美女毛片一区二区三区四区 | 欧美熟妇另类久久久久久不卡 | 男女下面进入的视频免费午夜 | 曰本女人与公拘交酡免费视频 | 久久久久久久久888 | 三上悠亚人妻中文字幕在线 | 国内揄拍国内精品人妻 | 97无码免费人妻超级碰碰夜夜 | 国产亚洲美女精品久久久2020 | 日韩精品无码一本二本三本色 | 亚洲成av人影院在线观看 | 久久精品女人天堂av免费观看 | 丰满人妻一区二区三区免费视频 | 亚洲欧美日韩成人高清在线一区 | 午夜嘿嘿嘿影院 | 人妻天天爽夜夜爽一区二区 | 国产凸凹视频一区二区 | 国产黑色丝袜在线播放 | 久久人妻内射无码一区三区 | 欧美丰满熟妇xxxx | 乱人伦中文视频在线观看 | 色一情一乱一伦一视频免费看 | 欧美 丝袜 自拍 制服 另类 | 色欲久久久天天天综合网精品 | 丝袜美腿亚洲一区二区 | 色婷婷综合激情综在线播放 | 动漫av一区二区在线观看 | 国产精品久久久久影院嫩草 | 亚洲国产综合无码一区 | 国产性生交xxxxx无码 | 两性色午夜免费视频 | 欧美日韩一区二区三区自拍 | 久久人人爽人人爽人人片ⅴ | 在线观看免费人成视频 | 一区二区三区乱码在线 | 欧洲 | 国产精品嫩草久久久久 | 亚洲成a人片在线观看日本 | 国产办公室秘书无码精品99 | 2020久久超碰国产精品最新 | 成人性做爰aaa片免费看 | 黑人玩弄人妻中文在线 | 国产精品无码mv在线观看 | 日日噜噜噜噜夜夜爽亚洲精品 | 亚洲日韩av一区二区三区中文 | 成人精品视频一区二区三区尤物 | 国产真实伦对白全集 | 久久精品一区二区三区四区 | 亚洲精品国产精品乱码不卡 | 国产亲子乱弄免费视频 | 1000部啪啪未满十八勿入下载 | 亚洲精品一区三区三区在线观看 | 麻豆国产97在线 | 欧洲 | 国产午夜亚洲精品不卡下载 | 亚洲成av人片在线观看无码不卡 | www国产精品内射老师 | 日韩无套无码精品 | 无码午夜成人1000部免费视频 | 一本久久a久久精品亚洲 | 久久午夜无码鲁丝片 | 精品水蜜桃久久久久久久 | 欧美日韩人成综合在线播放 | 欧美人与禽猛交狂配 | 欧美人与物videos另类 | 人人澡人人妻人人爽人人蜜桃 | 在线观看欧美一区二区三区 | 亚洲经典千人经典日产 | 任你躁在线精品免费 |