當前位置:九游会j9娱乐平台-九游ag登录中心网址 » 存儲配置 » mongodb存儲量

mongodb存儲量-九游会j9娱乐平台

發布時間: 2024-07-07 06:07:20

1. mongodb是非結構化資料庫

mongodb用於存儲非結構化數據,尤其擅長存儲json格式的數據。存儲的量大概在10億級別,再往上性能就下降了,除非另外分庫。
hbase是架構在hdfs上的列式存儲,擅長rowkey的快速查詢,但模糊匹配查詢(其實是前模糊或全模糊)不擅長,但存儲的量可以達到百億甚至以上,比mongodb的存儲量大多了。

2. mongodb 磁碟空間什麼時候釋放

mongodb自己是不會釋放空間的。你需要根據實際情況考慮策略。

mongodb之所以佔用空間非常大,一是因為日誌非常龐大,一是為了保證連續的存儲空間本身會提前申請很大的空間。你可以根據需求選擇禁用日誌,或者一定時間日誌輪詢,對使用的空間定時壓縮等。

存儲空間佔用不斷增大

資料庫中被刪除數據的空間不會自動被釋放,需要通過repair或compact操作回收。repair操作針對整個資料庫,需要停機,否則可能造成數據丟失,compact操作針對單個collection壓縮。

在啟動資料庫時可以選擇noprealloc參數,禁止資料庫預分配空間,但會影響到插入效率。也可以設置每次預分配空間的大小,這樣可以一定程度減小mongodb對空間的佔用,當數據量增大後效果會變的不明顯。

journal文件很大

journal文件夾下有幾個文件不會自動刪除,會不斷變大。在未進行操作時journal文件也會佔用4g空間。啟動時可以通過nojournal參數禁用某些節點的journal功能。考慮使用日誌輪詢來處理journal文件佔用空間過大問題。

以前使用的時候做的筆記摘抄了一點,時間有些久遠,你可以順著我提供的兩個函數,主要是compact,可以不關機壓縮,還不錯,還有對日誌輪詢,從這兩個角度考慮解決

3. 談談redis,memcache,mongodb的區別和具體應用場景

從以下幾個維度,對 redis、memcache、mongodb 做了對比。
1、性能
都比較高,性能對我們來說應該都不是瓶頸。
總體來講,tps 方面 redis 和 memcache 差不多,要大於 mongodb。
2、操作的便利性
memcache 數據結構單一。(key-value)
redis 豐富一些,數據操作方面,redis 更好一些,較少的網路 io 次數,同時還提供 list,set,
hash 等數據結構的存儲。
mongodb 支持豐富的數據表達,索引,最類似關系型資料庫,支持的查詢語言非常豐富。
3、內存空間的大小和數據量的大小
redis 在 2.0 版本後增加了自己的 vm 特性,突破物理內存的限制;可以對 key value 設置過
期時間(類似 memcache)
memcache 可以修改最大可用內存,採用 lru 演算法。memcached 代理軟體 magent,比如建立
10 台 4g 的 memcache 集群,就相當於有了 40g。 magent -s 10.1.2.1 -s 10.1.2.2:11211 -b
10.1.2.3:14000 mongodb 適合大數據量的存儲,依賴操作系統 vm 做內存管理,吃內存也比較厲害,服務
不要和別的服務在一起。
4、可用性(單點問題)
對於單點問題,
redis,依賴客戶端來實現分布式讀寫;主從復制時,每次從節點重新連接主節點都要依賴整
個快照,無增量復制,因性能和效率問題,
所以單點問題比較復雜;不支持自動 sharding,需要依賴程序設定一致 hash 機制。
一種替代方案是,不用 redis 本身的復制機制,採用自己做主動復制(多份存儲),或者改成
增量復制的方式(需要自己實現),一致性問題和性能的權衡
memcache 本身沒有數據冗餘機制,也沒必要;對於故障預防,採用依賴成熟的 hash 或者環
狀的演算法,解決單點故障引起的抖動問題。
mongodb 支持 master-slave,replicaset(內部採用 paxos 選舉演算法,自動故障恢復),auto sharding 機制,對客戶端屏蔽了故障轉移和切分機制。
5、可靠性(持久化)
對於數據持久化和數據恢復,
redis 支持(快照、aof):依賴快照進行持久化,aof 增強了可靠性的同時,對性能有所影

memcache 不支持,通常用在做緩存,提升性能;
mongodb 從 1.8 版本開始採用 binlog 方式支持持久化的可靠性
6、數據一致性(事務支持)
memcache 在並發場景下,用 cas 保證一致性redis 事務支持比較弱,只能保證事務中的每個操作連續執行
mongodb 不支持事務
7、數據分析
mongodb 內置了數據分析的功能(maprece),其他不支持
8、應用場景
redis:數據量較小的更性能操作和運算上
memcache:用於在動態系統中減少資料庫負載,提升性能;做緩存,提高性能(適合讀多寫
少,對於數據量比較大,可以採用 sharding)
mongodb:主要解決海量數據的訪問效率問題。
表格比較:
memcache redis 類型 內存資料庫 內存資料庫
數據類型 在定義 value 時就要固定數據類型 不需要
有字元串,鏈表,集 合和有序集合
虛擬內存 不支持 支持
過期策略 支持 支持
分布式 magent master-slave,一主一從或一主多從
存儲數據安全 不支持 使用 save 存儲到 mp.rdb 中
災難恢復 不支持 append only file(aof)用於數據恢復
性能
1、類型——memcache 和 redis 都是將數據存放在內存,所以是內存資料庫。當然,memcache 也可用於緩存其他東西,例如圖片等等。
2、 數據類型——memcache 在添加數據時就要指定數據的位元組長度,而 redis 不需要。
3、 虛擬內存——當物理內存用完時,可以將一些很久沒用到的 value 交換到磁碟。
4、 過期策略——memcache 在 set 時就指定,例如 set key1 0 0 8,即永不過期。redis 可以通
過例如 expire 設定,例如 expire name 10。
5、 分布式——設定 memcache 集群,利用 magent 做一主多從;redis 可以做一主多從。都可
以一主一從。
6、 存儲數據安全——memcache 斷電就斷了,數據沒了;redis 可以定期 save 到磁碟。
7、 災難恢復——memcache 同上,redis 丟了後可以通過 aof 恢復。
memecache 埠 11211
yum -y install memcached
yum -y install php-pecl-memcache
/etc/init.d/memcached start memcached -d -p 11211 -u memcached -m 64 -c 1024 -p /var/run/memcached/memcached.pid
-d 啟動一個守護進程
-p 埠
-m 分配的內存是 m
-c 最大運行並發數-p memcache 的 pid
//0 壓縮(是否 memcache_compressed) 30 秒失效時間
//delete 5 是 timeout $memcache = new memcache; $memcache -> connect('127.0.0.1', 11211); $memcache -> set('name','yang',0,30);
if(!$memcache->add('name','susan',0, 30)) {
//echo 'susan is exist'; }$memcache -> replace('name', 'lion', 0, 300); echo $memcache -> get('name');
//$memcache -> delete('name', 5);
printf "stats\r\n" | nc 127.0.0.1 11211
telnet localhost 11211 stats quit 退出
redis 的配置文件 埠 6379
/etc/redis.conf 啟動 redis
redis-server /etc/redis.conf 插入一個值
redis-cli set test "phper.yang" 獲取鍵值
redis-cli get test 關閉 redis
redis-cli shutdown 關閉所有
redis-cli -p 6379 shutdown $redis=new
redis(); $redis->connect('127.0.0.1',6379); $redis->set('test',
'hello world'); echo $redis->get('test'); mongodb
apt-get install mongo mongo 可以進入 shell 命令行
pecl install mongo mongodb 類似 phpmyadmin 操作平台 rockmongo

4. mongodb 是什麼看完你就知道了

點擊上方 藍色字體 ,選擇「置頂公眾號」

優質文章,第一時間送達

鏈接 | blog.csdn.net/hayre/article/details/80628431

1.mongodb是什麼?用一句話總結

mongodb是一款為web應用程序和互聯網基礎設施設計的資料庫管理系統。沒錯mongodb就是資料庫,是nosql類型的資料庫。

(1)mongodb提出的是文檔、集合的概念,使用bson(類json)作為其數據模型結構,其結構是面向對象的而不是二維表,存儲一個用戶在mongodb中是這樣子的。

使用這樣的數據模型,使得mongodb能在生產環境中提供高讀寫的能力,吞吐量較於mysql等sql資料庫大大增強。

(2)易伸縮,自動故障轉移。易伸縮指的是提供了分片能力,能對數據集進行分片,數據的存儲壓力分攤給多台伺服器。自動故障轉移是副本集的概念,mongodb能檢測主節點是否存活,當失活時能自動提升從節點為主節點,達到故障轉移。

(3)數據模型因為是面向對象的,所以可以表示豐富的、有層級的數據結構,比如博客系統中能把「評論」直接懟到「文章「的文檔中,而不必像myqsl一樣創建三張表來描述這樣的關系。

3.主要特性

(1)文檔數據類型

sql類型的資料庫是正規化的,可以通過主鍵或者外鍵的約束保證數據的完整性與唯一性,所以sql類型的資料庫常用於對數據完整性較高的系統。mongodb在這一方面是不如sql類型的資料庫,且mongodb沒有固定的schema,正因為mongodb少了一些這樣的約束條件,可以讓數據的存儲數據結構更靈活,存儲速度更加快。 (2)即時查詢能力

mongodb保留了關系型資料庫即時查詢的能力,保留了索引(底層是基於b tree)的能力。這一點汲取了關系型資料庫的優點,相比於同類型的nosql redis 並沒有上述的能力。 (3)復制能力

mongodb自身提供了副本集能將數據分布在多台機器上實現冗餘,目的是可以提供自動故障轉移、擴展讀能力。 (4)速度與持久性

mongodb的驅動實現一個寫入語義 fire and forget ,即通過驅動調用寫入時,可以立即得到返回得到成功的結果(即使是報錯),這樣讓寫入的速度更加快,當然會有一定的不安全性,完全依賴網路。

mongodb提供了journaling日誌的概念,實際上像mysql的bin-log日誌,當需要插入的時候會先往日誌裡面寫入記錄,再完成實際的數據操作,這樣如果出現停電,進程突然中斷的情況,可以保障數據不會錯誤,可以通過修復功能讀取journaling日誌進行修復。

(5)數據擴展

mongodb使用分片技術對數據進行擴展,mongodb能自動分片、自動轉移分片裡面的數據塊,讓每一個伺服器裡面存儲的數據都是一樣大小。

mongodb核心伺服器主要是通過mongod程序啟動的,而且在啟動時不需對mongodb使用的內存進行配置,因為其設計哲學是內存管理最好是交給操作系統,缺少內存配置是mongodb的設計亮點,另外,還可通過mongos路由伺服器使用分片功能。

mongodb的主要客戶端是可以交互的js shell 通過mongo啟動,使用js shell能使用js直接與mongodb進行交流,像使用sql語句查詢mysql數據一樣使用js語法查詢mongodb的數據,另外還提供了各種語言的驅動包,方便各種語言的接入。

mongomp和mongorestore,備份和恢復資料庫的標准工具。輸出bson格式,遷移資料庫。

mongoexport和mongoimport,用來導入導出json、csv和tsv數據,數據需要支持多格式時有用。mongoimport還能用與大數據集的初始導入,但是在導入前順便還要注意一下,為了能充分利用好mongodb通常需要對數據模型做一些調整。

mongosniff,網路嗅探工具,用來觀察發送到資料庫的操作。基本就是把網路上傳輸的bson轉換為易於人們閱讀的shell語句。

因此,可以總結得到,mongodb結合鍵值存儲和關系資料庫的最好特性。因為簡單,所以數據極快,而且相對容易伸縮還提供復雜查詢機制的資料庫。mongodb需要跑在64位的伺服器上面,且最好單獨部署,因為是資料庫,所以也需要對其進行熱備、冷備處理。

因為本篇文章不是api手冊,所有這里對shell的使用也是基礎的介紹什麼功能可以用什麼語句,主要是為了展示使用mongodb shell的方便性,如果需要知道具體的mongodb shell語法可以查閱官方文檔。

創建資料庫並不是必須的操作,資料庫與集合只有在第一次插入文檔時才會被創建,與對數據的動態處理方式是一致的。簡化並加速開發過程,而且有利於動態分配命名空間。如果擔心資料庫或集合被意外創建,可以開啟嚴格模式。

以上的命令只是簡單實例,假設如果你之前沒有學習過任何資料庫語法,同時開始學sql查詢語法和mongodb 查詢語法,你會發現哪一個更簡單呢?如果你使用的是java驅動去操作mongodb,你會發現任何的查詢都像hibernate提供出來的查詢方式一樣,只要構建好一個查詢條件對象,便能輕松查詢(接下來會給出示例),博主之前熟悉es6,所以入手mongodb js shell完成沒問題,也正因為這樣簡潔,完善的查詢機制,深深的愛上了mongodb。

使用java驅動鏈接mongodb是一件非常簡單的事情,簡單的引用,簡單的做增刪改查。在使用完java驅動後我才發現spring 對mongodb 的封裝還不如官方自身提供出來的東西好用,下面簡單的展示一下使用。

這里只舉例了簡單的鏈接與簡單的mongodb操作,可見其操作的容易性。使用驅動時是基於tcp套接字與mongodb進行通信的,如果查詢結果較多,恰好無法全部放進第一伺服器中,將會向伺服器發送一個getmore指令獲取下一批查詢結果。

插入數據到伺服器時間,不會等待伺服器的響應,驅動會假設寫入是成功的,實際是使用客戶端生成對象id,但是該行為可以通過配置配置,可以通過安全模式開啟,安全模式可以校驗伺服器端插入的錯誤。

要清楚了解mongodb的基本數據單元。在關系型資料庫中有帶列和行的數據表。而mongodb數據的基本單元是bson文檔,在鍵值中有指向不定類型值的鍵,mongodb擁有即時查詢,但不支持聯結操作,簡單的鍵值存儲只能根據單個鍵來獲取值,不支持事務,但支持多種原子更新操作。

如讀寫比是怎樣的,需要何種查詢,數據是如何更新的,會不會存在什麼並發問題,數據結構化的程度是要求高還是低。系統本身的需求決定mysql還是mongodb。

在關於schema 的設計中要注意一些原則,比如:

資料庫是集合的邏輯與物理分組,mongodb沒有提供創建資料庫的語法,只有在插入集合時,資料庫才開始建立。創建資料庫後會在磁碟分配一組數據文件,所有集合、索引和資料庫的其他元數據都保存在這些文件中,查閱資料庫使用磁碟狀態可通過。

集合是結構上或概念上相似得文檔的容器,集合的名稱可以包含數字、字母或 . 符號,但必須以字母或數字開頭,完全。

限定集合名不能超過128個字元,實際上 . 符號在集合中很有用,能提供某種虛擬命名空間,這是一種組織上的原則,和其他集合是一視同仁的。在集合中可以使用。

其次是鍵值,在mongodb裡面所有的字元串都是utf-8類型。數字類型包括double、int、long。日期類型都是utc格式,所以在mongodb裡面看到的時間會比北京時間慢8小時。整個文檔大小會限制在16m以內,因為這樣可以防止創建難看的數據類型,且小文檔可以提升性能,批量插入文檔理想數字范圍是10~200,大小不能超過16mb。

(2)解析查詢時mongodb通過最優計劃選擇一個索引進行查詢,當沒有最適合索引時,會先不同的使用各個索引進行查詢,最終選出一個最優索引做查詢

(3)如果有一個a-b的復合索引,那麼僅針對a的索引是冗餘的

(4)復合索引里的鍵的順序是很重要的

(2)復合索引

(3)唯一性索引

(4)稀疏索引

如索引的欄位會出現的值,或是大量文檔都不包含被索引的鍵。

如果數據集很大時,構建索引將會花費很長的時間,且會影響程序性能,可通過

當使用 mongorestore 時會重新構建索引。當曾經執行過大規模的刪除時,可使用

對索引進行壓縮,重建。

(1)查閱慢查詢日誌

(2)分析慢查詢

注意新版本的mongodb 的explain方法是需要參數的,不然只顯示普通的信息。

本節同樣主要簡單呈現mongodb副本集搭建的簡易性,與副本集的強壯性,監控容易性

提供主從復制能力,熱備能力,故障轉移能力

實際上mongodb對副本集的操作跟mysql主從操作是差不多的,先看一下mysql的主從數據流動過程

而mongodb主要依賴的日誌文件是oplog

寫操作先被記錄下來,添加到主節點的oplog里。與此同時,所有從結點復制oplog。首先,查看自己oplog里最後一條的時間戳;其次,查詢主節點oplog里所有大於此時間戳的條目;最後,把那些條目添加到自己的oplog里並應用到自己的庫里。從節點使用長輪詢立即應用來自主結點oplog的新條目。

當遇到以下情況,從節點會停止復制

local資料庫保存了所有副本集元素據和oplog日誌

可以使用以下命令查看復制情況

每個副本集成員每秒鍾ping一次其他所有成員,可以通過rs.status看到節點上次的心跳檢測時間戳和 健康 狀況。

這個點沒必要過多描述,但是有一個特殊場景,如果從節點和仲裁節點都被殺了,只剩下主節點,他會把自己降級成為從節點。

如果主節點的數據還沒有寫到從庫,那麼數據不能算提交,當該主節點變成從節點時,便會觸發回滾,那些沒寫到從庫的數據將會被刪除,可以通過rollback子目錄中的bson文件恢復回滾的內容。

只能鏈接到主節點,如果鏈接到從節點的話,會被拒絕寫入操作,但是如果沒有使用安全模式,因為mongo的fire and forget 特性,會把拒絕寫入的異常給吃掉。

(2)使用副本集方式鏈接

能根據寫入的情況自動進行故障轉移,但是當副本集進行新的選舉時,還是會出現故障,如果不使用安全模式,依舊會出現寫不進去,但現實成功的情況。

分片是資料庫切分的一個概念實現,這里也是簡單總結為什麼要使用分片以及分片的原理,操作。

當數據量過大,索引和工作數據集佔用的內存就會越來越多,所以需要通過分片負載來解決這個問題

(2)分片的核心操作

分片一個集合:分片是根據一個屬性的范圍進行劃分的,mongodb使用所謂的分片鍵讓每個文檔在這些范圍里找到自己的位置

塊:是位於一個分片中的一段連續的分片鍵范圍,可以理解為若干個塊組成分片,分片組成mongodb的全部數據

(3)拆分與遷移

塊的拆分:初始化時只有一個塊,達到最大塊尺寸64mb或100000個文檔就會觸發塊的拆分。把原來的范圍一分為二,這樣就有了兩個塊,每個塊都有相同數量的文檔。

遷移:當分片中的數據大小不一時會產生遷移的動作,比如分片a的數據比較多,會將分片a裡面的一些塊轉移到分片b裡面去。分片集群通過在分片中移動塊來實現均衡,是由名為均衡器的軟體進程管理的,任務是確保數據在各個分片中保持均勻分布,當集群中擁有塊最多的分片與擁有塊最少分片的塊差大於8時,均衡器就會發起一次均衡處理。

啟動兩個副本集、三個配置伺服器、一個mongos進程

配置分片

(2)索引

分片集合只允許在_id欄位和分片鍵上添加唯一性索引,其他地方不行,因為這需要在分片間進行通信,實施起來很復雜。

當創建分片時,會根據分片鍵創建一個索引。

(2)低效的分片鍵

(3)理想的分片鍵

根據不同的數據中心劃分

(2)最低要求

(3)配置的注意事項

需要估計集群大小,可使用以下命令對現有集合進行分片處理

(4)備份分片集群

備份分片時需要停止均衡器

使用64位機器、32位機器會制約mongodb的內存,使其最大值為1.5gb

(2)cpu mongodb 只有當索引和工作集都可放入內存時,才會遇到cpu瓶頸,cpu在mongodb使用中的作用是用來檢索數據,如果看到cpu使用飽和的情況,可以通過查詢慢查詢日誌,排查是不是查詢的問題導致的,如果是可以通過添加索引來解決問題

mongodb寫入數據時會使用到cpu,但是mongodb寫入時間一次只用到一個核,如果有頻繁的寫入行為,可以通過分片來解決這個問題 (3)內存

大內存是mongodb的保障,如果工作集大小超過內存,將會導致性能下降,因為這將會增加數據載入入內存的動作

(4)硬碟

mongodb默認每60s會與磁碟強制同步一次,稱為後台刷新,會產生i/o操作。在重啟時mongodb會將磁碟裡面的數據載入至內存,高速磁碟將會減少同步的時間

(5)文件系統

使用ext4 和 xfs 文件系統

禁用最後訪問時間

(6)文件描述符

linux 默認文件描述符是1024,需要大額度的提升這個額度

(7)時鍾

mongodb各個節點伺服器之間使用ntp伺服器

啟動時使用 - -bind_ip 命令

(2)身份驗證

啟動時使用 - -auth 命令

(3)副本集身份認證

使用keyfile,注意keyfile文件的許可權必須是600,不然會啟動不起來

搭建副本集至少需要兩個節點,其中仲裁結點不需要有自己的伺服器

(2)journaling日誌 寫數據時會先寫入日誌,而此時的數據也不是直接寫入硬碟,而是寫入內存

但是journaling日誌會消耗內存,所以可以在主庫上面關閉,在從庫上面啟動

可以單獨為journaling日誌使用一塊固態硬碟

在插入時,可以通過驅動確保journaling插入後再反饋,但是會非常影響性能。

-vvvvv 選項(v越多,輸出越詳細)

db.runcommand({logrotare:1}) 開啟滾動日誌

(2)top

(3)db.currentop

動態展示mongodb活動數據

佔用當前mongodb監聽埠往上1000號的埠

把資料庫內容導出成bson文件,而mongorestore能讀取並還原這些文件

(2)mongorestore

把導出的bson文件還原到資料庫

(3)備份原始數據文件 可以這么做,但是,操作之前需要進行鎖庫處理 db.runcommand({fsync:1,lock:true}) db.$cmd.sys.unlock.findone 請求解鎖操作,但是資料庫不會立刻解鎖,需要使用 db.currentop 驗證。

db.runcommand({repairdatabase:1}) 修復單個資料庫

修復就是根據jourling文件讀取和重寫所有數據文件並重建各個索引 (2)壓緊

壓緊,會重寫數據文件,並重建集合的全部索引,需要停機或者在從庫上面運行,如果需要在主庫上面運行,需要添加force參數 保證加寫鎖。

(2)為提升性能檢查索引和查詢

總的來說,掃描盡可能少的文檔。

保證沒有冗餘的索引,冗餘的索引會佔用磁碟空間、消耗更多的內存,在每次寫入時還需做更多工作

(3)添加內存

datasize 數據大小 和 indexsize 索引大小,如果兩者的和大於內存,那麼將會影響性能。

storagesize超過datasize 數據大小 兩倍以上,就會因磁碟碎片而影響性能,需要壓縮。

5. mongodb 刪除後為什麼不釋放空間

原因是mongodb設計的本身機制問題造成的。
首先,mongodb在創建數據文件時,會根據64m,128m,256m...遞增的方式產生數據文件,最大數據文件為2g,增大到2g之後,後面新增的數據文件都佔用2g空間。
當刪除某一個表的數據時,mongodb會標記你刪除該表所在數據文件位置為:該部分的數據已經刪除,但是不會釋放該數據文件所佔用的空間,當有新的數據進來之後,會將數據分配到該數據文件中。

一方面是:刪除文件後不產生多餘的數據碎片,
另一方面不做數據的大規模遷移,減少mongodb內部的io操作。
所以在刪除數據表之後,會發現系統空間並沒有釋放,從mongodb本身看,空間已經釋放了,被刪除數據的空間依然可用;
但從系統角度看,空間沒有釋放,並不會影響數據的存儲。

6. linux下我mongodb存儲快要滿了,怎麼擴充存儲大小,且不刪除原來的數據

如果是你的硬碟滿了,你可以再用別的硬碟跟這個硬碟構成raid。

如果是你的一個bson doc快滿了,那麼說明你的存儲的數據結構是有問題的,如果可能的話,應該重新設計以使bson doc不超過限制;如果不能的話,那麼你可以修改

源文件「mongo/src/mongo/bson/util/builder.h」裡面的

constintbsonobjmaxusersize=16*1024*1024;

到你需要的大小,然後重新編譯mongodb。但不要改的太大,因為每一個bson object都是要全部讀進內存里的。

熱點內容
仙境傳說手游腳本 發布:2024-07-17 16:09:24 瀏覽:690
matlab命令窗口和新建腳本 發布:2024-07-17 15:51:26 瀏覽:374
建ftp文件夾 發布:2024-07-17 15:51:26 瀏覽:954
魔獸撿物腳本 發布:2024-07-17 15:27:56 瀏覽:129
開發ip伺服器 發布:2024-07-17 15:24:42 瀏覽:387
安卓系統視頻製作哪個好用 發布:2024-07-17 15:10:47 瀏覽:210
androidapk結構 發布:2024-07-17 15:10:43 瀏覽:945
c語言指針的例子 發布:2024-07-17 15:08:01 瀏覽:768
linuxzcat 發布:2024-07-17 15:02:09 瀏覽:901
賓士編程嗎 發布:2024-07-17 14:57:08 瀏覽:853
网站地图