<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      paddlepaddle如何預(yù)加載embedding向量

      使用小批量數(shù)據(jù)時,模型容易過擬合,所以需要對全量數(shù)據(jù)進(jìn)行處理,我是用的是word2vec訓(xùn)練的詞向量. 那么訓(xùn)練好對詞向量如何加載呢?

      #!/usr/bin/env python
      # -*- coding: utf-8 -*-
      """
      -------------------------------------------------
         Version     :       None
         File Name   :       paddle_load_w2v
         Description :       None
         Author      :       gongxijun
         Email       :      
         date        :       2019-12-04
      -------------------------------------------------
         Change Activity:
                         2019-12-04:
      -------------------------------------------------
      """
      from __future__ import absolute_import
      from __future__ import print_function
      from __future__ import unicode_literals
      
      __author__ = 'gongxijun'
      import paddle
      import paddle.fluid as fluid
      import paddle.fluid.layers as layers
      import paddle.fluid.nets as nets
      import numpy as np
      import math
      import codecs
      from huangdao.dataset import data_feeder
      
      
      def load_parameter(file_name):
          embeddings = []
          words = []
          with codecs.open(file_name, 'r',encoding="utf8") as f:
              header = f.readline()
              vocab_size, vector_size = map(int, header.split())
              for line in range(vocab_size):
                  word_list = f.readline().strip("\n").strip(" ").split(' ')
                  word = word_list[0]
                  vector = word_list[1:]
                  words.append(word if len(word) > 0 else "unk")
                  assert len(vector) == vector_size, "{} {}".format(len(vector), vector_size)
                  embeddings.append(np.array(vector))
          assert len(words) == len(embeddings)
          return words, embeddings
      
      
      word_dict_len = 74378
      word_dim = 128
      
      
      def get_embedding(name, shape, is_sparse=True, dtype='int64'):
          """
          :param name:
          :param is_categorical: bool 是否是類標(biāo)簽
          :param shape: must be (a,b)
          :param dtype:
          :param is_sparse: bool
          :return:
          """
          alias_id = layers.data(name=name, shape=[1], dtype=dtype)
          assert len(shape) == 2, '{} must equal 2'.format(len(shape))
          alias_emb = layers.embedding(input=alias_id, size=shape,
                                       param_attr=fluid.param_attr.ParamAttr(name="embedding_{}".format(name)),
                                       is_sparse=is_sparse)
          alias_fc = layers.fc(input=alias_emb, size=shape[1])
          return alias_fc
      
      
      words_emb = get_embedding("words", shape=(word_dict_len, word_dim))
      
      place = fluid.CPUPlace()
      exe = fluid.Executor(place)
      
      exe.run(fluid.default_startup_program())
      embedding_param = fluid.global_scope().find_var(
          "embedding_words").get_tensor()
      words, embeddings = load_parameter("/Users/gongxijun/data/item2vec.txt")
      embedding_param.set(embeddings, place)

       

      posted @ 2019-12-05 12:11  龔細(xì)軍  閱讀(1004)  評論(2)    收藏  舉報
      主站蜘蛛池模板: 免费久久人人爽人人爽AV| 亚洲国产免费图区在线视频| 国产精品第一二三区久久| 怡春院久久国语视频免费| 亚洲精品日韩久久精品| 国产伦精品一区二区三区| 性人久久久久| 米奇亚洲国产精品思久久| 精品综合一区二区三区四区| 亚洲国产午夜精品理论片| AV无码不卡一区二区三区| 国产精品一区二区三区四| 亚洲国产精品综合久久2007| 一本一道av中文字幕无码| 国产午夜精品理论大片| 性色av不卡一区二区三区| 国产一区韩国主播| 国产精品自拍午夜福利| 国产精品黄色片在线观看| 欧美成人精品三级网站视频| 又大又紧又粉嫩18p少妇 | 国模在线视频一区二区三区| 亚洲爆乳WWW无码专区| 国产在线观看播放av| 少妇高潮尖叫黑人激情在线| 性色在线视频精品| 69天堂人成无码免费视频| 一区二区三区四区五区自拍| 亚洲丰满老熟女激情av| 中文人妻熟妇乱又伦精品| 日韩精品国产中文字幕| 亚洲三级香港三级久久| 精品国产国语对白主播野战| 黄色特级片一区二区三区| 久久午夜无码鲁丝片午夜精品| 亚洲一区二区啊射精日韩| 亚洲av成人无码天堂| 人人人澡人人肉久久精品| 久久亚洲日本激情战少妇| 国产一级r片内射免费视频| 天堂资源在线|