国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

RocketMQ為什么要保證訂閱關(guān)系的一致性?

gekylin / 713人閱讀

摘要:微信公眾號(hào)后端進(jìn)階,專注后端技術(shù)分享框架分布式中間件服務(wù)治理等等。

微信公眾號(hào)「后端進(jìn)階」,專注后端技術(shù)分享:Java、Golang、WEB框架、分布式中間件、服務(wù)治理等等。

前段時(shí)間有個(gè)朋友向我提了一個(gè)問題,他說在搭建 RocketMQ 集群過程中遇到了關(guān)于消費(fèi)訂閱的問題,具體問題如下:

然后他發(fā)了報(bào)錯(cuò)的日志給我看:

the consumer"s subscription not exist

我第一時(shí)間在源碼里找到了報(bào)錯(cuò)的位置:

org.apache.rocketmq.broker.processor.PullMessageProcessor#processRequest:

subscriptionData = consumerGroupInfo.findSubscriptionData(requestHeader.getTopic());
if (null == subscriptionData) {
  log.warn("the consumer"s subscription not exist, group: {}, topic:{}", requestHeader.getConsumerGroup(), requestHeader.getTopic());
  response.setCode(ResponseCode.SUBSCRIPTION_NOT_EXIST);
  response.setRemark("the consumer"s subscription not exist" + FAQUrl.suggestTodo(FAQUrl.SAME_GROUP_DIFFERENT_TOPIC));
  return response;
}

此處源碼是將該 Topic 的訂閱信息找出來,然而這里卻沒找到,所以報(bào)了消費(fèi)訂閱不存在的錯(cuò)誤。

朋友還跟我講了他的消費(fèi)集群中,每個(gè)消費(fèi)者訂閱了自己的 Topic,他的消費(fèi)組中 有 c1 和 c2 消費(fèi)者,c1 訂閱了 topicA,而 c2 訂閱了 topicB。

這時(shí)我已經(jīng)知道什么原因了,我先說一下消費(fèi)者的訂閱信息在 broker 中是以 group 來分組的,數(shù)據(jù)結(jié)構(gòu)如下:

org.apache.rocketmq.broker.client.ConsumerManager:

private final ConcurrentMap consumerTable =
  new ConcurrentHashMap(1024);

這意味著集群中的每個(gè)消費(fèi)者在向 broker 注冊(cè)訂閱信息的時(shí)候相互覆蓋掉對(duì)方的訂閱信息了,這也是為什么同一個(gè)消費(fèi)組應(yīng)該擁有完全一樣的訂閱關(guān)系的原因,而朋友在同一個(gè)消費(fèi)組的每個(gè)消費(fèi)者訂閱關(guān)系都不一樣,就出現(xiàn)了訂閱信息相互覆蓋的問題。

可是朋友這時(shí)又有疑惑了,他覺得每個(gè)消費(fèi)者訂閱自己的主題,貌似沒問題啊,邏輯上也行的通,他不明白為什么 RocketMQ 不允許這樣做,于是秉承著老司機(jī)的職業(yè)素養(yǎng),下面我會(huì)從源碼的角度深度分析 RocketMQ 消費(fèi)訂閱注冊(cè),消息拉取,消息隊(duì)列負(fù)載與重新分布機(jī)制,讓大家徹底弄清 RocketMQ 消費(fèi)訂閱機(jī)制。

消費(fèi)者訂閱信息注冊(cè)

消費(fèi)者在啟動(dòng)時(shí)會(huì)向所有 broker 注冊(cè)訂閱信息,并啟動(dòng)心跳機(jī)制,定時(shí)更新訂閱信息,每個(gè)消費(fèi)者都有一個(gè) MQClientInstance,消費(fèi)者啟動(dòng)時(shí)會(huì)啟動(dòng)這個(gè)類,啟動(dòng)方法中會(huì)啟動(dòng)一些列定時(shí)任務(wù),其中:

org.apache.rocketmq.client.impl.factory.MQClientInstance#startScheduledTask:

this.scheduledExecutorService.scheduleAtFixedRate(new Runnable() {
  @Override
  public void run() {
    try {
      MQClientInstance.this.cleanOfflineBroker();
      MQClientInstance.this.sendHeartbeatToAllBrokerWithLock();
    } catch (Exception e) {
      log.error("ScheduledTask sendHeartbeatToAllBroker exception", e);
    }
  }
}, 1000, this.clientConfig.getHeartbeatBrokerInterval(), TimeUnit.MILLISECONDS);

上面是向集群內(nèi)所有 broker 發(fā)送訂閱心跳信息的定時(shí)任務(wù),源碼繼續(xù)跟進(jìn)去,發(fā)現(xiàn)會(huì)給集群中的每個(gè) broker 都發(fā)送自己的 HeartbeatData,HeartbeatData 即是每個(gè)客戶端的心跳數(shù)據(jù),它包含了如下數(shù)據(jù):

// 客戶端ID
private String clientID;
// 生產(chǎn)者信息
private Set producerDataSet = new HashSet();
// 消費(fèi)者信息
private Set consumerDataSet = new HashSet();

其中消費(fèi)者信息包含了客戶端訂閱的主題信息。

我們繼續(xù)看看 broker 如何處理 HeartbeatData 數(shù)據(jù),客戶端發(fā)送 HeartbeatData 時(shí)的請(qǐng)求類型為 HEART_BEAT,我們直接找到 broker 處理 HEART_BEAT 請(qǐng)求類型的邏輯:

org.apache.rocketmq.broker.processor.ClientManageProcessor#heartBeat:

public RemotingCommand heartBeat(ChannelHandlerContext ctx, RemotingCommand request) {
  RemotingCommand response = RemotingCommand.createResponseCommand(null);
  // 解碼,獲取 HeartbeatData
  HeartbeatData heartbeatData = HeartbeatData.decode(request.getBody(), HeartbeatData.class);
  ClientChannelInfo clientChannelInfo = new ClientChannelInfo(
    ctx.channel(),
    heartbeatData.getClientID(),
    request.getLanguage(),
    request.getVersion()
  );

  // 循環(huán)注冊(cè)消費(fèi)者訂閱信息
  for (ConsumerData data : heartbeatData.getConsumerDataSet()) {
    // 按消費(fèi)組獲取訂閱配置信息
    SubscriptionGroupConfig subscriptionGroupConfig =
      this.brokerController.getSubscriptionGroupManager().findSubscriptionGroupConfig(
      data.getGroupName());
    boolean isNotifyConsumerIdsChangedEnable = true;
    if (null != subscriptionGroupConfig) {
      isNotifyConsumerIdsChangedEnable = subscriptionGroupConfig.isNotifyConsumerIdsChangedEnable();
      int topicSysFlag = 0;
      if (data.isUnitMode()) {
        topicSysFlag = TopicSysFlag.buildSysFlag(false, true);
      }
      String newTopic = MixAll.getRetryTopic(data.getGroupName());
      this.brokerController.getTopicConfigManager().createTopicInSendMessageBackMethod(
        newTopic,
        subscriptionGroupConfig.getRetryQueueNums(),
        PermName.PERM_WRITE | PermName.PERM_READ, topicSysFlag);
    }

    // 注冊(cè)消費(fèi)者訂閱信息
    boolean changed = this.brokerController.getConsumerManager().registerConsumer(
      data.getGroupName(),
      clientChannelInfo,
      data.getConsumeType(),
      data.getMessageModel(),
      data.getConsumeFromWhere(),
      data.getSubscriptionDataSet(),
      isNotifyConsumerIdsChangedEnable
    );
    // ...
    response.setCode(ResponseCode.SUCCESS);
    response.setRemark(null);
    return response;
  }

在這里我們可以看到,broker 收到 HEART_BEAT 請(qǐng)求后,將請(qǐng)求數(shù)據(jù)解壓獲取 HeartbeatData,根據(jù) HeartbeatData 里面的消費(fèi)訂閱信息,循環(huán)進(jìn)行注冊(cè):

org.apache.rocketmq.broker.client.ConsumerManager#registerConsumer:

public boolean registerConsumer(final String group, final ClientChannelInfo clientChannelInfo,
                                ConsumeType consumeType, MessageModel messageModel, ConsumeFromWhere consumeFromWhere,
                                final Set subList, boolean isNotifyConsumerIdsChangedEnable) {

  // 獲取消費(fèi)組內(nèi)的消費(fèi)者信息
  ConsumerGroupInfo consumerGroupInfo = this.consumerTable.get(group);
  // 如果消費(fèi)組的消費(fèi)者信息為空,則新建一個(gè)
  if (null == consumerGroupInfo) {
    ConsumerGroupInfo tmp = new ConsumerGroupInfo(group, consumeType, messageModel, consumeFromWhere);
    ConsumerGroupInfo prev = this.consumerTable.putIfAbsent(group, tmp);
    consumerGroupInfo = prev != null ? prev : tmp;
  }

  boolean r1 =
    consumerGroupInfo.updateChannel(clientChannelInfo, consumeType, messageModel,
                                    consumeFromWhere);
  // 更新訂閱信息,訂閱信息是按照消費(fèi)組存放的,因此這步驟就會(huì)導(dǎo)致同一個(gè)消費(fèi)組內(nèi)的各個(gè)消費(fèi)者客戶端的訂閱信息相互被覆蓋
  boolean r2 = consumerGroupInfo.updateSubscription(subList);

  if (r1 || r2) {
    if (isNotifyConsumerIdsChangedEnable) {
      this.consumerIdsChangeListener.handle(ConsumerGroupEvent.CHANGE, group, consumerGroupInfo.getAllChannel());
    }
  }

  this.consumerIdsChangeListener.handle(ConsumerGroupEvent.REGISTER, group, subList);

  return r1 || r2;
}

這步驟是 broker 更新消費(fèi)者訂閱信息的核心方法,如果消費(fèi)組的消費(fèi)者信息 ConsumerGroupInfo 為空,則新建一個(gè),從名字可知道,訂閱信息是按照消費(fèi)組進(jìn)行存放的,因此在更新訂閱信息時(shí),訂閱信息是按照消費(fèi)組存放的,這步驟就會(huì)導(dǎo)致同一個(gè)消費(fèi)組內(nèi)的各個(gè)消費(fèi)者客戶端的訂閱信息相互被覆蓋

消息拉取

在 MQClientInstance 啟動(dòng)時(shí),會(huì)啟動(dòng)一條線程來處理消息拉取任務(wù):

org.apache.rocketmq.client.impl.factory.MQClientInstance#start:

// Start pull service
this.pullMessageService.start();

pullMessageService 繼承了 ServiceThread,而 ServiceThread 實(shí)現(xiàn)了 Runnable 接口,它的 run 方法實(shí)現(xiàn)如下:

org.apache.rocketmq.client.impl.consumer.PullMessageService#run:

@Override
public void run() {
  while (!this.isStopped()) {
    try {
      // 從 pullRequestQueue 中獲取拉取消息請(qǐng)求對(duì)象
      PullRequest pullRequest = this.pullRequestQueue.take();
      // 執(zhí)行消息拉取
      this.pullMessage(pullRequest);
    } catch (InterruptedException ignored) {
    } catch (Exception e) {
      log.error("Pull Message Service Run Method exception", e);
    }
  }
}

消費(fèi)端拿到 PullRequest 對(duì)象進(jìn)行拉取消息,pullRequestQueue 是一個(gè)阻塞隊(duì)列,如果 pullRequest 數(shù)據(jù)為空,執(zhí)行 take() 方法會(huì)一直阻塞,直到有新的 pullRequest 拉取任務(wù)進(jìn)來,這里是一個(gè)很關(guān)鍵的步驟,你可能會(huì)想,pullRequest 什么時(shí)候被創(chuàng)建然后放入 pullRequestQueue?pullRequest 它是在RebalanceImpl 中創(chuàng)建,它是 RocketMQ 消息隊(duì)列負(fù)載與重新分布機(jī)制的實(shí)現(xiàn)

消息隊(duì)列負(fù)載與重新分布

從上面消息拉取源碼分析可知,pullMessageService 啟動(dòng)時(shí)由于 pullRequestQueue 中沒有 pullRequest 對(duì)象,會(huì)一直阻塞,而在 MQClientInstance 啟動(dòng)時(shí),同樣會(huì)啟動(dòng)一條線程來處理消息隊(duì)列負(fù)載與重新分布任務(wù):

org.apache.rocketmq.client.impl.factory.MQClientInstance#start:

// Start rebalance service
this.rebalanceService.start();

rebalanceService 同樣繼承了 ServiceThread,它的 run 方法如下:

@Override
public void run() {
  while (!this.isStopped()) {
    this.waitForRunning(waitInterval);
    this.mqClientFactory.doRebalance();
  }
}

繼續(xù)跟進(jìn)去:

org.apache.rocketmq.client.impl.consumer.RebalanceImpl#doRebalance:

public void doRebalance(final boolean isOrder) {
  // 獲取消費(fèi)者所有訂閱信息
  Map subTable = this.getSubscriptionInner();
  if (subTable != null) {
    for (final Map.Entry entry : subTable.entrySet()) {
      final String topic = entry.getKey();
      try {
        // 消息隊(duì)列負(fù)載與重新分布
        this.rebalanceByTopic(topic, isOrder);
      } catch (Throwable e) {
        if (!topic.startsWith(MixAll.RETRY_GROUP_TOPIC_PREFIX)) {
          log.warn("rebalanceByTopic Exception", e);
        }
      }
    }
  }
  this.truncateMessageQueueNotMyTopic();
}

這里主要是獲取客戶端訂閱的主題,并根據(jù)主題進(jìn)行消息隊(duì)列負(fù)載與重新分布,subTable 存儲(chǔ)了消費(fèi)者的訂閱信息,消費(fèi)者進(jìn)行消息訂閱時(shí)會(huì)填充到里面,我們接著往下:

org.apache.rocketmq.client.impl.consumer.RebalanceImpl#rebalanceByTopic:

Set mqSet = this.topicSubscribeInfoTable.get(topic);
List cidAll = this.mQClientFactory.findConsumerIdList(topic, consumerGroup);

rebalanceByTopic 方法是實(shí)現(xiàn) Consumer 端負(fù)載均衡的核心,我們這里以集群模式的消息隊(duì)列負(fù)載與重新分布,首先從 topicSubscribeInfoTable 中獲取訂閱主題的隊(duì)列信息,接著隨機(jī)從集群中的一個(gè) broker 中獲取消費(fèi)組內(nèi)某個(gè) topic 的訂閱客戶端 ID 列表,這里需要注意的是,為什么從集群內(nèi)任意一個(gè) broker 就可以獲取訂閱客戶端信息呢?前面的分析也說了,消費(fèi)者客戶端啟動(dòng)時(shí)會(huì)啟動(dòng)一個(gè)線程,向所有 broker 發(fā)送心跳包。

org.apache.rocketmq.client.impl.consumer.RebalanceImpl#rebalanceByTopic:

// 如果 主題訂閱信息mqSet和主題訂閱客戶端不為空,就執(zhí)行消息隊(duì)列負(fù)載與重新分布
if (mqSet != null && cidAll != null) {
  List mqAll = new ArrayList();
  mqAll.addAll(mqSet);

  // 排序,確保每個(gè)消息隊(duì)列只分配一個(gè)消費(fèi)者
  Collections.sort(mqAll);
  Collections.sort(cidAll);

  // 消息隊(duì)列分配算法
  AllocateMessageQueueStrategy strategy = this.allocateMessageQueueStrategy;

  // 執(zhí)行算法,并得到隊(duì)列重新分配后的結(jié)果對(duì)象allocateResult
  List allocateResult = null;
  try {
    allocateResult = strategy.allocate(
      this.consumerGroup,
      this.mQClientFactory.getClientId(),
      mqAll,
      cidAll);
  } catch (Throwable e) {
    log.error("AllocateMessageQueueStrategy.allocate Exception. allocateMessageQueueStrategyName={}", strategy.getName(),
              e);
    return;
  }
  // ...
}

以上是消息負(fù)載均衡的核心邏輯,RocketMQ 本身提供了 5 種負(fù)載算法,默認(rèn)使用 AllocateMessageQueueAveragely 平均分配算法,它分配算法特點(diǎn)如下:

假設(shè)有消費(fèi)組 g1,有消費(fèi)者 c1 和 c2,c1 訂閱了 topicA,c2 訂閱了 topicB,集群內(nèi)有 broker1 和broker2,假設(shè) topicA 有 8 個(gè)消息隊(duì)列,broker_a(q0/q1/q2/q3) 和 broker_b(q0/q1/q2/q3),前面我們知道 findConsumerIdList 方法會(huì)獲取消費(fèi)組內(nèi)所有消費(fèi)者客戶端 ID,topicA 經(jīng)過平均分配算法進(jìn)行分配之后的消費(fèi)情況如下:

c1:broker_a(q0/q1/q2/q3)

c2:broker_b(q0/q1/q2/q3)

問題就出現(xiàn)在這里,c2 根本沒有訂閱 topicA,但根據(jù)分配算法,卻要加上 c2 進(jìn)行分配,這樣就會(huì)導(dǎo)致這種情況有一半的消息被分配到 c2 進(jìn)行消費(fèi),被分配到 c2 的消息隊(duì)列會(huì)延遲十幾秒甚至更久才會(huì)被消費(fèi),topicB 同理

下面我用圖表示 topicA 和 topicB 經(jīng)過 rebalance 之后的消費(fèi)情況:

至于為什么會(huì)報(bào) the consumer"s subscription not exist,我們繼續(xù)往下擼:

org.apache.rocketmq.client.impl.consumer.RebalanceImpl#rebalanceByTopic:

if (mqSet != null && cidAll != null) {
  // ...
  Set allocateResultSet = new HashSet();
  if (allocateResult != null) {
    allocateResultSet.addAll(allocateResult);
  }
  // 用戶重新分配后的結(jié)果allocateResult來更新當(dāng)前消費(fèi)者負(fù)載的消息隊(duì)列緩存表processQueueTable,并生成 pullRequestList 放入 pullRequestQueue 阻塞隊(duì)列中
  boolean changed = this.updateProcessQueueTableInRebalance(topic, allocateResultSet, isOrder);
  if (changed) {
    log.info(
      "rebalanced result changed. allocateMessageQueueStrategyName={}, group={}, topic={}, clientId={}, mqAllSize={}, cidAllSize={}, rebalanceResultSize={}, rebalanceResultSet={}",
      strategy.getName(), consumerGroup, topic, this.mQClientFactory.getClientId(), mqSet.size(), cidAll.size(),
      allocateResultSet.size(), allocateResultSet);
    this.messageQueueChanged(topic, mqSet, allocateResultSet);
  }
}

以上代碼邏輯主要是拿 mqSet 和 cidAll 進(jìn)行消息隊(duì)列負(fù)載與重新分布,得到結(jié)果 allocateResult,它是一個(gè) MessageQueue 列表,接著用 allocateResult 更新消費(fèi)者負(fù)載的消息隊(duì)列緩存表 processQueueTable,生成 pullRequestList 放入 pullRequestQueue 阻塞隊(duì)列中:

org.apache.rocketmq.client.impl.consumer.RebalanceImpl#updateProcessQueueTableInRebalance:

List pullRequestList = new ArrayList();
// 循環(huán)執(zhí)行,將mqSet訂閱數(shù)據(jù)封裝成PullRequest對(duì)象,并添加到pullRequestList中
for (MessageQueue mq : mqSet) {
  // 如果緩存列表不存在該訂閱信息,說明這次消息隊(duì)列重新分配后新增加的消息隊(duì)列
  if (!this.processQueueTable.containsKey(mq)) {
    if (isOrder && !this.lock(mq)) {
      log.warn("doRebalance, {}, add a new mq failed, {}, because lock failed", consumerGroup, mq);
      continue;
    }
    this.removeDirtyOffset(mq);
    ProcessQueue pq = new ProcessQueue();
    long nextOffset = this.computePullFromWhere(mq);
    if (nextOffset >= 0) {
      ProcessQueue pre = this.processQueueTable.putIfAbsent(mq, pq);
      if (pre != null) {
        log.info("doRebalance, {}, mq already exists, {}", consumerGroup, mq);
      } else {
        log.info("doRebalance, {}, add a new mq, {}", consumerGroup, mq);
        PullRequest pullRequest = new PullRequest();
        pullRequest.setConsumerGroup(consumerGroup);
        pullRequest.setNextOffset(nextOffset);
        pullRequest.setMessageQueue(mq);
        pullRequest.setProcessQueue(pq);
        pullRequestList.add(pullRequest);
        changed = true;
      }
    } else {
      log.warn("doRebalance, {}, add new mq failed, {}", consumerGroup, mq);
    }
  }
}
// 將pullRequestList添加到PullMessageService中的pullRequestQueue阻塞隊(duì)列中,以喚醒PullMessageService線程執(zhí)行消息拉取
this.dispatchPullRequest(pullRequestList);

前面我們講到消息拉取是從 pullRequestQueue 阻塞隊(duì)列中拿 pullRequest 執(zhí)行拉取的,以上方法就是創(chuàng)建 pullRequest 的地方。

源碼分析到這里,就可以弄清楚為什么會(huì)報(bào) the consumer"s subscription not exist 這個(gè)錯(cuò)誤了:

假設(shè)有消費(fèi)者組 g1,g1下有消費(fèi)者 c1 和消費(fèi)者 c2,c1 訂閱了 topicA,c2 訂閱了 topicB,此時(shí)c2 先啟動(dòng),將 g1 的訂閱信息更新為 topicB,c1 隨后啟動(dòng),將 g1 的訂閱信息覆蓋為 topicA,c1 的 Rebalance 負(fù)載將 topicA 的 pullRequest 添加到 pullRequestQueue 中,而恰好此時(shí) c2 心跳包又將 g1 的訂閱信息更新為 topicB,那么此時(shí) c1 的 PullMessageService 線程拿到 pullRequestQueue 中 topicA 的 pullRequest 進(jìn)行消息拉取,然而在 broker 端找不到消費(fèi)者組 g1 下 topicA 的訂閱信息(因?yàn)榇藭r(shí)恰好被 c2 心跳包給覆蓋了),就會(huì)報(bào)消費(fèi)者訂閱信息不存在的錯(cuò)誤了

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/75680.html

相關(guān)文章

  • rocketmq簡介

    摘要:和之間的關(guān)系通過來綁定,來定義,即相同的,等于表示節(jié)點(diǎn),非表示節(jié)點(diǎn)。所有的節(jié)點(diǎn)與集群的所有節(jié)點(diǎn)保持長連接,定時(shí)注冊(cè)信息到所有的。對(duì)磁盤的訪問串行化,避免磁盤竟?fàn)帲粫?huì)因?yàn)殛?duì)列增加導(dǎo)致增高。要保證與完全的一致,增加了編程的復(fù)雜度。 Apache RocketMQ?是一個(gè)開源的分布式消息和流數(shù)據(jù)平臺(tái)。 1、既然是消息系統(tǒng),最核心的功能就是要提供消息的發(fā)布與訂閱功能,最簡單的概念模型如下: ...

    chnmagnus 評(píng)論0 收藏0
  • 新手也能看懂,消息隊(duì)列其實(shí)很簡單

    摘要:通過以上分析我們可以得出消息隊(duì)列具有很好的削峰作用的功能即通過異步處理,將短時(shí)間高并發(fā)產(chǎn)生的事務(wù)消息存儲(chǔ)在消息隊(duì)列中,從而削平高峰期的并發(fā)事務(wù)。 該文已加入開源項(xiàng)目:JavaGuide(一份涵蓋大部分Java程序員所需要掌握的核心知識(shí)的文檔類項(xiàng)目,Star 數(shù)接近 16k)。地址:https://github.com/Snailclimb... 本文內(nèi)容思維導(dǎo)圖:showImg(ht...

    Clect 評(píng)論0 收藏0
  • 高并發(fā)異步解耦利器:RocketMQ究竟強(qiáng)在哪里?

    摘要:它是阿里巴巴于年開源的第三代分布式消息中間件。是一個(gè)分布式消息中間件,具有低延遲高性能和可靠性萬億級(jí)別的容量和靈活的可擴(kuò)展性,它是阿里巴巴于年開源的第三代分布式消息中間件。上篇文章消息隊(duì)列那么多,為什么建議深入了解下RabbitMQ?我們講到了消息隊(duì)列的發(fā)展史:并且詳細(xì)介紹了RabbitMQ,其功能也是挺強(qiáng)大的,那么,為啥又要搞一個(gè)RocketMQ出來呢?是重復(fù)造輪子嗎?本文我們就帶大家來詳...

    tainzhi 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<