亚洲欧美制服先锋,又湿又紧又大又爽A视频男,精品无码AV一区二区三区,一区二区三区日韩在线观看,亚洲香蕉AV在线一区二区三区

亚洲欧美制服先锋,又湿又紧又大又爽A视频男,精品无码AV一区二区三区,一区二区三区日韩在线观看,亚洲香蕉AV在线一区二区三区

Internet Develppment
互聯(lián)網(wǎng)開(kāi)發(fā)& 推廣服務(wù)提供商

我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。

歡迎瀏覽我們的案例。

首頁(yè) > 新聞中心 > 新聞動(dòng)態(tài) > 正文

特斯拉AI主管新作:用當前深度學(xué)習技術(shù)復現LeCun 33年前手寫(xiě)數字識別論文

發(fā)布時(shí)間:2022-03-19 11:12:17來(lái)源:網(wǎng)易科技

  我認為 Yann LeCun 等人于 1989 年發(fā)表的論文「反向傳播應用于手寫(xiě)郵政編碼識別」(Backpropagation Applied to Handwritten Zip Code Recognition),具有相當重要的歷史意義,因為據我所知,這是最早用反向傳播機制端到端訓練的神經(jīng)網(wǎng)絡(luò )在現實(shí)生活中的應用。

  除了其使用的微型數據集(7291 個(gè) 16x16 的灰度數字圖像)和微型神經(jīng)網(wǎng)絡(luò )(僅 1000 個(gè)神經(jīng)元)顯得落伍之外,在 33 年后的今天,這篇論文讀來(lái)仍然十分新穎——它展示了一個(gè)數據集,描述了神經(jīng)網(wǎng)絡(luò )結構、損失函數、優(yōu)化器,并報告了在訓練集和測試集上實(shí)驗得到的錯誤率。

  除了時(shí)光已流逝 33 年,這篇文章仍是一篇標準的深度學(xué)習論文。因此,我此次復現這篇論文,一是為了好玩,二是將這次練習作為一個(gè)案例來(lái)研究深度學(xué)習進(jìn)展的本質(zhì)。

  實(shí)施細節

  我試著(zhù)盡可能與這篇論文保持一致,并用 PyTorch 復現了 GitHub repo 上 karpathy/lecun1989-repro 中的所有內容。

  最初的網(wǎng)絡(luò )部署在 Lisp 上,使用 Bottou 和 LeCun 1988 年發(fā)表的「backpropagation simulator SN(后來(lái)命名為 Lush)」。

  這篇論文是用法語(yǔ)寫(xiě)的,所以我沒(méi)有更好地理解它,但從結構上來(lái)看,你可以使用更高級的 API 來(lái)構造神經(jīng)網(wǎng)絡(luò ),就像你今天在 PyTorch 上搭建各式各樣的項目那樣。

  作為軟件設計的簡(jiǎn)要說(shuō)明,現代程序庫采用了一種分為 3 部分的設計:

  1)一個(gè)高速(C/CUDA)通用張量庫,能在多維張量上實(shí)現基本的數學(xué)運算;

  2)一個(gè)自動(dòng)求導引擎,能跟蹤正向計算特征,并能提供反向傳播操作;

  3)可編程(Python)的深度學(xué)習編碼器,高級的 API,需要包含常見(jiàn)的深度學(xué)習操作,比如構建層、架構、提供優(yōu)化器、損失函數等。

  訓練細節

  在訓練過(guò)程中,我們必須在有 7291 個(gè)示例的訓練集上訓練 23 個(gè)周期,總共向神經(jīng)網(wǎng)絡(luò )傳送了 167693 次數據(包含樣本和標簽)。最初的網(wǎng)絡(luò )在 SUN-4/260 工作站上訓練了 3 天。

  我在我的 MacBook Air(M1)CPU 上運行了我的實(shí)現,并在大約 90 秒的時(shí)間內完成了運行(約 3000 倍的顯著(zhù)提速)。

  我的 conda 設置為使用本機 AMD64 版本,而不是 Rosetta 仿真。如果 Pytorch 支持 M 1(包括 GPU 和 NPU)的全部功能,加速可能會(huì )更顯著(zhù),但這似乎仍在開(kāi)發(fā)中。

  我還天真地嘗試在一張 A100 GPU 上運行代碼,但實(shí)際上訓練速度更慢了,很可能是因為網(wǎng)絡(luò )太小了(4 個(gè)卷積層,最多 12 個(gè)通道,總共 9760 個(gè)參數,64 K 位址量,1 K 激活值),SGD 每次只能使用一個(gè)樣本。

  這就是說(shuō),如果真的想用現代硬件(A100)和軟件基礎設施(CUDA、PyTorch)解決這個(gè)問(wèn)題,我們需要用每個(gè)樣本的 SGD 過(guò)程來(lái)交換完整的批量訓練,以最大限度地提高 GPU 利用率,并很可能實(shí)現另一個(gè)約 100 倍的訓練耗時(shí)提速。

  復現 1989 年的表現

  原論文展示的結果如下:

  eval: split train. loss 2.5e-3. error 0.14%. misses: 10

  eval: split test . loss 1.8e-2. error 5.00%. misses: 102

  而我的復現代碼在同時(shí)期的表現如下:

  eval: split train. loss 4.073383e-03. error 0.62%. misses: 45

  eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

  由此可見(jiàn),我只能粗略地再現這些結果,卻不能做到完全一樣??杀氖?,很可能永遠無(wú)法進(jìn)行精確復現了,因為我認為原始數據集已經(jīng)被遺棄在了時(shí)間的長(cháng)河中。

  相反,我不得不使用更大的 MNIST 數據集(哈哈,我從沒(méi)想過(guò)我會(huì )用「大」來(lái)形容它)來(lái)模擬它,取其 28x28 位,通過(guò)雙線(xiàn)性插值將其縮小到 16x16 像素,并隨機地從中提取合理數量的訓練集和測試集樣本。

  但我相信還有其他罪魁禍首。例如,這篇論文對權重初始化方案的描述有點(diǎn)過(guò)于抽象,我懷疑 PDF 文件中存在一些格式錯誤,例如,刪除點(diǎn)「.」讓「2.5」看起來(lái)像「2 5」,并且有可能(我想是吧?)刪除了平方根。

  例如,我們被告知權重初始值是從均勻的「2 4/F」中提取的,其中 F 是扇入,但我猜這肯定是(我猜的)指「2.4/sqrt(F)」,其中 sqrt 有助于保持輸出的標準偏差。

  網(wǎng)絡(luò )的 H1 層和 H2 層之間的特定稀疏連接結構也被忽略了,論文只是說(shuō)它是“根據一個(gè)在這里不會(huì )被討論的方案選擇的”,所以我不得不在這里做出一些合理的猜測,比如使用重疊塊稀疏結構。

  論文還聲稱(chēng)使用了 tanh 非線(xiàn)性,但我想這實(shí)際上可能是映射 ntanh(1)=1 的「標準化 tanh」,并可能添加了一個(gè)按比例縮小的跳躍連接,這是在當時(shí)很流行的操作,以確保 tanh 平滑的尾部至少有一點(diǎn)梯度。

  最后,本文使用了「牛頓算法的一個(gè)特殊版本,它使用了 Hessian 的正對角近似值」,但我只使用了 SGD,因為它非常簡(jiǎn)單,更何況根據本文,「人們認為該算法不會(huì )帶來(lái)學(xué)習速度的巨大提高」。

  坐上時(shí)光車(chē)「作弊」

  這是我最喜歡的部分。

  想一下,相比于 1989,我們已經(jīng)在未來(lái)生活了 33 年,這時(shí)的深度學(xué)習是一個(gè)非?;鸨难芯款I(lǐng)域。 利用我們的現代理解和 33 年來(lái)的研發(fā)技術(shù)積累,我們能在原有成果的基礎上提高多少?

  我最初的結果是:

  eval: split train. loss 4.073383e-03. error 0.62%. misses: 45 eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

  歸到目標 -1(負類(lèi))或 +1(正類(lèi))的任務(wù),輸出神經(jīng)元同樣也具有 tanh 非線(xiàn)性。 所以我刪除了輸出層上的 tanh 以獲得類(lèi)別 logit,并在標準(多類(lèi))交叉熵損失函數中交換。 這一變化極大地改善了訓練錯誤,在訓練集上直接過(guò)擬合了,結果如下:

  eval: split train. loss 9.536698e-06. error 0.00%. misses: 0 eval: split test . loss 9.536698e-06. error 4.38%. misses: 87

  其次,根據我的經(jīng)驗,一個(gè)經(jīng)過(guò)微調的 SGD 可以很好地工作,但現代的 Adam 優(yōu)化器(當然,學(xué)習率為 3e-4)幾乎總是作為一個(gè)強大的 baseline,幾乎不需要任何調整。 因此,為了提高我對優(yōu)化不會(huì )影響性能的信心,我選擇了使用學(xué)習率為 3e-4 的 AdamW,并在訓練過(guò)程中逐步將其降至 1e-4,結果如下:

  eval: split train. loss 0.000000e+00. error 0.00%. misses: 0 eval: split test . loss 0.000000e+00. error 3.59%. misses: 72

  由于仍然出現了嚴重的過(guò)度擬合,我隨后介紹了一種簡(jiǎn)單的數據增強策略,將輸入圖像水平或垂直移動(dòng)最多 1 個(gè)像素。 然而,由于這模擬了數據集大小的增加,我還必須將訓練周期數數從 23 次增加到 60 次(我已經(jīng)驗證過(guò)在原始設置中單純地增加通過(guò)次數并不能顯著(zhù)改善結果):

  eval: split train. loss 8.780676e-04. error 1.70%. misses: 123 eval: split test . loss 8.780676e-04. error 2.19%. misses: 43

  數據增強是一個(gè)相當簡(jiǎn)單且非常標準的概念,用于克服過(guò)度擬合,但我在 1989 年的論文中沒(méi)有找到它,也許它是一個(gè) 1989 年后才有的創(chuàng )新(我猜的)。

  由于我們仍然有點(diǎn)過(guò)擬合,我在工具箱中找到了另一個(gè)現代工具,Dropout。 我在參數最多的層(H 3)前加了一個(gè) 0.25 的弱衰減。

  因為 dropout 將激活設置為零,所以將其與激活范圍為 [-1, 1] 的 tanh 一起使用沒(méi)有多大意義,所以我也將所有非線(xiàn)性替換為更簡(jiǎn)單的 ReLU 激活函數。 因為 dropout 在訓練中會(huì )帶來(lái)更多的噪音,我們還必須訓練更長(cháng)的時(shí)間,增加至最多 80 個(gè)訓練周期,但結果卻變得十分喜人:

  eval: split train. loss 2.601336e-03. error 1.47%. misses: 106 eval: split test . loss 2.601336e-03. error 1.59%. misses: 32

  我驗證了在原來(lái)的網(wǎng)絡(luò )中僅僅交換 tanh->relu 并沒(méi)有帶來(lái)實(shí)質(zhì)性的收益,所以這里的大部分改進(jìn)都來(lái)自于增加了 dropout。

  總之,如果我能時(shí)光旅行到 1989 年,我將能夠減少大約 60% 的錯誤率,使我們從約 80 個(gè)錯誤減少到約 30 個(gè)錯誤,測試集的總體錯誤率約為 1.5%。

  這并不是完全沒(méi)有代價(jià)的,因為我們還將訓練時(shí)間增加了近 4 倍,這將使 1989 年的訓練時(shí)間從 3 天增加到近 12 天。但推理速度不會(huì )受到影響。

  剩下的測試失敗樣本如下所示:

  更進(jìn)一步

  然而,在替換 MSE->Softmax,SGD->AdamW,添加數據增強,dropout,交換 tanh→relu 之后,我開(kāi)始逐漸減少依賴(lài)觸手可得的技巧。

  我嘗試了更多的方法(例如權重標準化),但沒(méi)有得到更好的結果。 我還嘗試將 Visual Transformer(ViT)小型化為「 micro-ViT」,大致在參數量和計算量上與之前相符,但無(wú)法仿真 convnet 的性能。

  當然,在過(guò)去的 33 年里,我們還研究出了許多其他創(chuàng )新,但其中許多創(chuàng )新(例如,殘差連接,層/批次標準化)只適用于更大的模型,并且大多有助于穩定大規模優(yōu)化。

  在這一點(diǎn)上,進(jìn)一步的收益可能來(lái)自網(wǎng)絡(luò )規模的擴大,但這會(huì )增加測試的推斷時(shí)間。

  用數據「作弊」

  另一種提高性能的方法是擴大數據集的規模,盡管完成數據標注需要一些成本。

  我們在最初的 baseline(再次作為消融參考)上測試結果是:

  eval: split train. loss 4.073383e-03. error 0.62%. misses: 45 eval: split test . loss 2.838382e-02. error 4.09%. misses: 82

  讓 baseline 訓練 100 個(gè)周期,這已經(jīng)表明僅僅增加數據就能提高性能:

  eval: split train. loss 1.305315e-02. error 2.03%. misses: 60 eval: split test . loss 1.943992e-02. error 2.74%. misses: 54

  但進(jìn)一步將其與當代知識的創(chuàng )新(如前一節所述)結合在一起,將帶來(lái)迄今為止最好的表現:

  eval: split train. loss 3.238392e-04. error 1.07%. misses: 31 eval: split test . loss 3.238392e-04. error 1.25%. misses: 24

  總而言之,在 1989 年簡(jiǎn)單地擴展數據集將是提高系統性能的有效方法,且不需要犧牲推理時(shí)間。

  反思

  讓我們總結一下我們在 2022 年時(shí),作為一名時(shí)間旅行者考察 1989 年最先進(jìn)的深度學(xué)習技術(shù)時(shí)所學(xué)到的:

  首先,33 年來(lái)宏觀(guān)層面上沒(méi)有太大變化。我們仍在建立由神經(jīng)元層組成的可微神經(jīng)網(wǎng)絡(luò )結構,并通過(guò)反向傳播和隨機梯度下降對其進(jìn)行端到端優(yōu)化。所有的東西讀起來(lái)都非常熟悉,只是 1989 時(shí)它們的體量比較小。

  按照今天的標準,1989 年的數據集就是一個(gè)「嬰兒」:訓練集只有 7291 個(gè) 16x16 的灰度圖像。今天的視覺(jué)數據集通常包含數億張來(lái)自網(wǎng)絡(luò )的高分辨率彩色圖像(例如,谷歌有 JFT-300M,OpenAI CLIP 是在 400M 的數據集上訓練的),但仍會(huì )增長(cháng)到幾十億。這大約是此前每幅圖像約一千倍的像素信息(384*384*3/(16*16))乘以十萬(wàn)倍的圖像數(1e9/1e4),輸入的像素數據的差距約為一億倍。

  那時(shí)的神經(jīng)網(wǎng)絡(luò )也是一個(gè)「嬰兒」:這個(gè) 1989 年的網(wǎng)絡(luò )有大約 9760 個(gè)參數、64 K 個(gè)位址和 1 K 個(gè)激活值?,F代(視覺(jué))神經(jīng)網(wǎng)絡(luò )的規模通常有幾十億個(gè)小參數(1000000X)和 O(~1e12)個(gè)位址數(~1000000X),而自然語(yǔ)言模型甚至可以達到數萬(wàn)億級別的參數量。

  最先進(jìn)的分類(lèi)器花了 3 天時(shí)間在工作站上訓練,而現在在我的無(wú)風(fēng)扇筆記本電腦上訓練只需 90 秒(3000 倍原始提速),通過(guò)切換到全批量?jì)?yōu)化并使用 GPU,很可能能進(jìn)一步獲得 100 倍的提升。

  事實(shí)上,我能夠根據現代的技術(shù)創(chuàng )新調整模型,比如使用數據增強,更好的損失函數和優(yōu)化器,以將錯誤率降低 60%,同時(shí)保持數據集和模型的測試時(shí)間不變。

  僅通過(guò)增大數據集就可以獲得適度的收益。

  進(jìn)一步的顯著(zhù)收益可能來(lái)自更大的模型,這將需要更多的計算成本和額外的研發(fā),以幫助在不斷擴大的規模上穩定訓練。值得一提的是,如果我被傳送到 1989 年,我最終會(huì )在沒(méi)有更強大計算機的情況下,使模型達到改進(jìn)能力的上限。

  假設這個(gè)練習的收獲在時(shí)間維度上保持不變。2022 年的深度學(xué)習意味著(zhù)什么?2055 年的時(shí)間旅行者會(huì )如何看待當前網(wǎng)絡(luò )的性能?

  2055 年的神經(jīng)網(wǎng)絡(luò )在宏觀(guān)層面上與 2022 年的神經(jīng)網(wǎng)絡(luò )基本相同,只是更大。

  我們今天的數據集和模型看起來(lái)像個(gè)笑話(huà)。兩者都在大約上千億倍大于當前數據集和模型。

  我們可以在個(gè)人電腦設備上用大約一分鐘的時(shí)間來(lái)訓練 2022 年最先進(jìn)的模型,這將成為一個(gè)有趣的周末項目。

  今天的模型并不是最優(yōu)的,只要改變模型的一些細節,損失函數,數據增強或優(yōu)化器,我們就可以將誤差減半。

  我們的數據集太小,僅通過(guò)擴大數據集的規模就可以獲得適度的收益。

  如果不升級運算設備,并投資一些研發(fā),以有效地訓練如此規模的模型,就不可能取得進(jìn)一步的收益。

  但我想說(shuō)的最重要的趨勢是, 在某些目標任務(wù)(如數字識別)上從頭開(kāi)始訓練一個(gè)神經(jīng)網(wǎng)絡(luò )的整個(gè)過(guò)程由于過(guò)于精細化而很快變得過(guò)時(shí),特別是隨著(zhù) GPT 等基礎模型的出現。

  這些基礎模型只由少數具有大量計算資源的機構來(lái)訓練,并且大多數應用是通過(guò)輕量級的微調網(wǎng)絡(luò ),快速部署工程,數據清洗,模型蒸餾,用專(zhuān)用的推理網(wǎng)絡(luò )來(lái)實(shí)現的。

  我認為,我們應該期待這一趨勢愈發(fā)蓬勃,而且也已經(jīng)確實(shí)如此。 在最極端的推斷中,你根本不會(huì )想訓練任何神經(jīng)網(wǎng)絡(luò )。

  在 2055 年,你將要求一個(gè)千億大小的神經(jīng)網(wǎng)絡(luò )超強大腦通過(guò)用英語(yǔ)說(shuō)話(huà)(或思考)來(lái)執行一些任務(wù)。

  如果你的要求足夠清晰,它會(huì )很樂(lè )意執行的。當然,你也可以自己訓練神經(jīng)網(wǎng)絡(luò )……但你還有什么訓練的必要呢?
 ?。?a href="http://m.lsbmaoyi.com/wechat/">邯鄲小程序開(kāi)發(fā))

最新資訊
? 2018 河北碼上網(wǎng)絡(luò )科技有限公司 版權所有 冀ICP備18021892號-1   
? 2018 河北碼上科技有限公司 版權所有.
一级黄片二级黄片三级黄片| 日本免费久久久久久精| 人人爱人人草人人做图片素材下载| 久久无码高清电影免费| 制服丝袜另类专区制服| 亚洲乱人伦中文字幕无码| 亚洲国产精品一区二区三区| 天堂网www中文在线资源| 亚洲综合国产一区在线| 亚洲人成影院在线无码观看| 亚洲A片无码精品毛片色戒| 亚洲精品国产成人99久久tv| 一区二区三区国产最好的精华液| 中文字幕2019国语在线| 亚洲av片在线观看| 亚洲熟妇熟女久久精品综合一区| 亚洲国产AV玩弄| 欧美亚洲国产成人一区二区三区| 亚洲另类1区二区| 欧美视频无砖专区一中文字目| 伊人久久精品综合视频网| 狠狠色噜噜狠狠狠狠色综合久AV| 亚洲精品色青久久久久久久| 国产日b视频免费观看| 亚洲精品亚洲国产3区| 亚洲精品成人av在线| 午夜寂寞视频无码专区| 中文字幕日韩女同互慰视频| 亚洲综合色自拍一区| 国产字幕手机免费播放| 亚洲欧洲精品国产区| 亚洲一区二区三区麻豆| 一区二区三区视频18推荐| 免费高清96国产日韩欧美在线| 一本大道之中文日本香蕉| 亚洲中文字幕无码不卡电影| 一本精品中文字幕在线| 亚洲日本aV不卡在线观看| 亚洲精品久久久www| 欧美日韩亚洲综合一区二区三区| 日韩av电影免费在线播放| 亚洲日韩精品a∨片无码| 国产在线精品一区二区三区| 欧美亚洲国产一区二区三区| 亚洲一级无线视频| 成人涩涩屋视频无码A片| 一级特黄aa大片手机在线| 久久久久国产精品人妻aⅴ果冻| 中文日韩字幕一区在线观看| 日本十八禁视频无遮挡| 色小姐》全集完整版| 国产aⅴ一区二区三区| 亚洲不卡无码av中文字幕| 免费独播手机免费播放| 亚洲自偷自偷图片视频专区| 亚洲av成人片色在线观看| 亚洲av永久无码精品无码四虎| 在线观看国产一区日本二区| 国产欧美一区二区樱花在线观看| 永久免费av无码网站bt动漫| 亚洲人欧洲国产综合| 亚洲制服欧美在线| 国产精品一区二区三区麻豆| 国产精自产拍久久久久久| 一级做a爱无码性| 亚洲精品久久久久久a片小说8| 免费久久99精品国产婷婷六月| 中国熟女HD老女人HD| 亚洲乱码无人区卡1卡2卡3| 国产二区视频在线观看| 亚洲欧美国产日韩在线精品| 久久综合亚洲色HEZYO国产| 一区二区三区不卡视频在线观看| 国模无码视频一区二区三| 亚洲人精品午夜射精日韩字幕| 国产精品自在在午夜免费| 亚洲亚洲人成综合丝袜图片| 在线播放久久大蕉香蕉免费| 亚洲精品无码久久毛| 成人网18免费韩国| 制服丝袜中文字幕在线| 午夜福利无码不卡在线观看| 人在线成免费视频在线观看| 中文字幕乱码一区二区三区| 国产精品无码久久久久软件| 国产精品一区二区欧美视频| 最新亚洲人AV日韩一区二区| 亚洲久悠悠色悠在线播放| 亚洲国产成人精品区综合| 日本一级淫片a级欧美| 国产99久9在线视频传媒| 制服师生无码在线视频| 亚洲国产天堂在线观看| 中文字幕+乱码+中文字幕av| 亚洲三级毛片在线观看高清| 中文无码欧美人妻日韩精品| 狠狠色狠狠色综合日日不卡| 亚洲午夜久久久久久久久电影网| 在线观看麻豆av| 中文字幕人妻丝袜成熟乱| 亚洲第五色综合网| 国产三级A三级三级| 亚洲日韩欧美一区久久久久我| 性欧美18ⅹxoo极品图片| 亚洲精品无码AV电影在线播放| 伊人a综合狠狠天天久久青| 国产情侣自拍丝袜制服在线| 亚洲欧美性综合在线| 午夜一级无码福利视频| 久久国产亚洲女同精品| 亚洲依依成人综合网站| 一区二区福利视频| 亚洲aⅤ日韩aⅤ永久无码久久| 国产成人综合久久精品| 免费日韩手机在线播放| 在线观看永久免费视频网站| 亚洲日本中文字幕区| 国模无码一区二区三区| 一级黄片二级黄片三级黄片| 日韩免费无码专区精品观看| 亚洲学生妹高清AV| 亚洲日本va中文字幕在线不卡| 国产无遮挡A片又黄又爽| 亚洲欧美人成人另类| 亚洲精品国产精品乱码涩涩| 国产精品一区久久一区| 亚洲欧美日韩在线观看一区二区| 精品丝袜国产自在线拍| 中文字幕αv精品在线视频| 国产精品爆乳尤物99精品| 亚洲欧美日韩成人高清在线一区| 亚洲欧美在线综合色影视| 欧美另类丝袜精品久久| 精品精品国产自在97香蕉蜜芽| 亚洲黄色av网站| 亚洲综合日本一区| 亚洲综合无码无在线观看| 中文字幕亚洲在线观看| 丰满少妇高潮久久三区| 亚洲高清网址中文字幕| 亚洲一区二区三区AV天堂| 亚洲另类色区欧美日韩| 性欧美大战久久久久久久久| 欧美精品一区二区三| 亚洲精品午夜aaa久久久| 成人精品网站在线观看| 一本久久a精品一合区久久久| 国产一区二区三区香蕉| 在线亚洲人成电影网站| 在线看黄a∨免费观看| 欧美中文日韩v在线中文字幕| 中文一本无码福利在线| 亚洲精品夜夜夜妓女| 少妇女人a毛片视频| 国产精品毛片免费在线看片| 制服丝袜中文字码| 国产调教久久久精品免费| 五月天伊人久久大香线焦| 国产精品亚韩精品无码a在线| 亚洲一区二区三区91| 在线观看无码AV网址| 又粗又大真舒服好爽电影| 亚洲另类日韩制服无码| 国内精品欧美视频一区二区| 成人va亚洲va欧美天堂| 欧美中文字幕第一页| 亚洲一级av不卡毛片无码| 国产精品电影久久久久电影网| 亚洲AV成本人无码| 亚洲欧美人成人另类| 国产精品18久久久| 熟妇少妇任你躁在线观看| 中文字幕久久熟女| 亚洲精品白浆高清久久久久久| 欧美亚洲精品中文字幕乱码| 亚洲制服丝袜无码第3页| 最新熟妇精品国产电视剧| 亚洲无线观看国产超清| 亚洲欧美日韩在线播放| 亚洲精品AV中文字幕在线| 亚洲无码在线视频免费| 国产日韩在线观看视频| 久久成人伊人欧洲精品| 日本无码精品国产AⅤ亚洲| 亚洲国产欧洲综合997久久| 亚洲欧美久久精品一区| 亚洲激情a∨79成人网| 亚洲AV卡通动漫无码| 人人爱天天做夜夜爽88| 亚洲精品中文字幕不卡| 免费伦理电影在线观看| av片免费在线观看不卡| 三级做爰大爽色情三级七男一女| 中文字幕aV日韩精品一区二区| 在线国产一区二区三区| 丁香五月天缴情在线高清| 亚洲VA天堂VA欧美ⅤA在线| 亚洲高清揄拍国产无码观看| 久久精品一区二区三区| 一区二区三区激情综合| 亚洲国产A∨无码影院| 亚洲欧美另类自拍| 在线播放日韩中文字幕| 亚洲国产精品无码aaa片| 99久久国产综合精品女| 99久久免费国产精品特黄| 日本高清不卡aⅴ免费网站| 亚洲av电影精品不卡正片| 久久网站热最新地址| 一级黄片视频a爱视频在| 97影院成人片在线| 亚洲精品白浆高清久久久久久| 亚洲国精产品久久久久| 亚洲五月综合缴情在线观看| 国产精品9999久久久久仙踪林| 精品人妻大屁股白浆无码| 亚欧免费无码AⅤ在线观看蜜桃| 亚洲AV久久久久久久无码| 亚洲精品美女久久777777| 最新影视大全免费在线观看| 国产欧美久久久精品不卡| 中文字幕日本一区| 一区二区在线免费视频| 亚洲AV无码无卡网站入口| 亚洲欧美日韩精品无码aV| 亚洲区综合区小说区激情区| 中文字幕三级电影| 亚洲精品国偷自产在线| 日韩中文字幕免费观看| 91九色视频在线观看| 亚洲成AV人片在色猫咪| 亚洲国产人成中文幕一级二级| 一区鲁丝二区鲁丝三区| 亚洲精品科技有限公司招聘| 亚洲国产av一区二区三区四区| 国产免费av片在线无码免费看| 色综合久久综合网欧美综合网| 亚洲第一页五月天| 亚洲aV无码成人精品区日韩| 久久久久久久尹人综合网亚洲| 亚洲国产成人精品久久| 丁香花电影高清在线观看完整版| 亚洲一级免费视频| 又粗又猛又爽又黄的视频| 亚洲精品久久久一区黄无码| 国产精品一区二区三区在线| 亚洲欧洲日产国码无码久久99| 制服丝袜99在线不卡| 又粗又硬又爽18级a片| 欧美成人高清在线播放| 欧美精品久久久久宅男| 亚洲av成人综合| 亚洲成人av电影一区二区三区| 国产精品伊人久久久久| 精品高清美女精品國產區| 国产成人区高清在线观看91| 国产áv傅天堂精品| 亚洲日韩人妻无码新作上线| 亚洲av无码国产精品色午夜| 国模小黎自慰337P人体| 国产免费播放一区二区三区| 中文字幕日韩欧美中文字幕在线| 性欧美老人牲交xxxxx视频| 一区二区三区深夜欧美| 在线观看亚洲欧美不卡视频| 国模无码视频一区二区三| 一区二区三区天堂综合网| 国产亚洲A∨片在线观看| 天天拍天天看天天做| 无码gogo大胆啪啪艺术免费| 久久久久久毛片免费播放| 丰满少妇人妻久久久久久| 亚洲日韩欧美在线观看| 国产精品高潮呻吟久久AV无码| 国产高清欧美精品一区二区| 在线观看福利影院| 亚洲一区二区三区中文在线| 在线观看aV不卡网站永久| 中国少妇激情做爱视频| 国产一区二区三区内射高清| 天堂精品中文字幕在线| 久久蜜桃精品一区二区| 日日摸夜夜添夜夜添特色大片| 中文亚洲日韩A∨欧美| 亚洲熟妇色XXXXX亚洲| 亚洲国产成人片在线| 2021国产成人精品久久|