分类目录归档:MongoDB

一种减少mongodb压力的交互设计方法

有一个按关键词采集数据的分布式程序用到了mongodb,各个客户端用findAndModify命令每次从服务端的mongodb中读取一条记录,执行完后再更新到库里。
[csharp]
public static Keyword Get()
{
Keyword keyword = null;
bool notGot = true;
int retries = 0;
while (notGot && retries < 3)
{
try
{
if (collection == null)
collection = db.GetCollection<Keyword>("keyword");

var query = Query.And(
Query.GTE("queries", Properties.Settings.Default.MinQueries),
Query.LTE("queries", Properties.Settings.Default.MaxQueries),
Query.Or(Query.Exists("flag", false), Query.EQ("flag", 0))
);
var update = Update.Set("flag", -1);
var result = collection.FindAndModify(
query,
null,
update,
true // return new document
);
if (result != null)
{
BsonDocument doc = result.ModifiedDocument;
if (doc != null)
{
keyword = new Keyword();
keyword.keyword = doc["keyword"].AsString.Trim().Replace("’", "").Replace("\\","") ;
//if (keyword.keyword.Contains("’")||keyword.keyword.Contains("\\")) continue;
//if(doc["queries"].GetType().Equals(System.Type.))
double qq = Convert.ToDouble(doc["queries"]);
keyword.queries = Convert.ToInt32(Math.Floor(qq));
notGot = false;
}
else
{
retries++;
}
}

//MessageBox.Show(keyword.keyword + " – " + keyword.queries);
}
catch (MongoConnectionException mce)
{
retries = 0;
log.Error("MongoDB连接出现问题,程序将会一直每隔5秒重试一次,直到连接正常为止。");
Thread.Sleep(5000);
Reconnect();
}
catch (Exception ext)
{
log.Error("【获取关键词时错误】"+ext.Message+" – "+ext.GetType());
if (ext.InnerException == null)
{
log.Error(ext.StackTrace);
}
else
{
log.Error(ext.InnerException.StackTrace);
}
Thread.Sleep(5000);
//BsonDocument log = new BsonDocument {
// { "client", Properties.Settings.Default.Client },
// { "time", string.Format("{0:yyyy-MM-dd HH:mm:ss}",DateTime.Now) },
// { "description", "found error while getting keyword: "+e.Message}
//};
//db = server.GetDatabase(Properties.Settings.Default.DbName);
retries++;
log.Error("已经重试次数:"+retries);
Reconnect();
}
}
return keyword;
}
[/csharp]
flag的初始状态为0或没有初始状态,取完一条以后会把flag标识置为-1,当保存更新的时候再给状态改为1,一轮结束后再把此范围内的所有记录的flag都置为0.
但这样读写比较频繁,会给mongodb造成比较大的压力,而且会出现类似下面的锁的问题:
[conn463] warning: ClientCursor::yield can’t unlock b/c of recursive lock ns:
现在改批量取,实时更新的办法,代码如下:
[csharp]
public static List<Keyword> Select(int skip, int limit)
{
List<Keyword> keywords = null; // new List<Keyword>();
bool notSelected = true;
int retries = 0;
while (notSelected && retries < 3)
{
try
{
MongoCollection<BsonDocument> collKeyword = db.GetCollection<BsonDocument>("keyword");
var query = Query.And(
Query.GTE("queries", Properties.Settings.Default.MinQueries),
Query.LTE("queries", Properties.Settings.Default.MaxQueries),
Query.Or(Query.Exists("flag", false), Query.EQ("flag", 0))
);

if (limit == 0)
{
var cursor = collKeyword.Find(query).SetSkip(skip);
if (cursor != null)
{
keywords = new List<Keyword>();
//keywords = cursor.ToList();
foreach (BsonDocument keyword in cursor)
{
Keyword k = new Keyword();
k.keyword = keyword.GetValue("keyword").ToString();
k.queries = Convert.ToInt32(keyword.GetValue("queries"));
keywords.Add(k);
}
notSelected = false;
}
}
else
{
var cursor = collKeyword.Find(query).SetSkip(skip).SetLimit(limit);
if (cursor != null)
{
keywords = new List<Keyword>();
//keywords = cursor.ToList();
foreach (BsonDocument keyword in cursor)
{
Keyword k = new Keyword();
k.keyword = keyword.GetValue("keyword").ToString();
k.queries = Convert.ToInt32(keyword.GetValue("queries"));
keywords.Add(k);
}
notSelected = false;
}
}

notSelected = false;
}
catch (Exception e)
{
Thread.Sleep(3000);
retries++;
Reconnect();
}
}

return keywords;
}
[/csharp]
这样即使程序断掉,再启动时也可以从下一条开始,不至于重复抓取。

MongoDB vs Redis vs Tokyo Tyrant[转]

准备对MongoDB, Redis以及Tokyo Tyrant的读写做一个简单的测试,为了进行相对公平的测试,需要了解他们背后的实现机制,下面是一些比较:

存储实现的比较:
* 内存文件映像(Memory-File Mapping) Redis, MongoDB
* 文件 + Cache Tokyo Tyrant
* 内存: Redis, Tokyo Tyrant
Key/Value索引形式:
* B+ Tree : MongoDB, Tokyo Tyrant
* Hash Table: Redis, Tokyo Tyrant
* Fixed Length: Tokyo Tyrant

从上面的比较可以看出,Redis和MongoDB是基于系统内存映像文件,数据能命中在内存的时候读写操作性能应该是非常强的,当然,反过来,如果数据十分分散不能在内存命中,那么内存页的切换开销将是非常可怕的,MongoDB和Redis数据文件不同的是将数据存放在多个文件中,每当上一个存满的时候就会创建新的数据空间文件。鉴于MongoDB 是主要比较对象,而其采用B+Tree进行存储,故TT也使用B+Tree引擎进行比较。

那么该测试什么自然就可以得知:尽管使用内存映像文件读写操作会很快(快到什么程度),但是当写满内存以后呢?

文件大小限制:
32bit: MongoDB <= 2G
TT no limits if u ./configure –enable-off
64bit: MongoDB和TT均无限制。

注:Redis 总是受限于内存的大小。

为了进行相对公平的测试:
首先通过虚拟机对内存的使用进行同等限制,因为MongoDB和Redi实际上读写都是在内存操作的(利用MemoryMap文件),故当数据库的大小超过内存大小时候的性能尤为重要。故用虚拟机来设置一个较小的内存大小,来快速观察数据库大小超过内存的时候的性能。
这里设置虚拟机内存256M,实际可使用内存200M左右,CPU 2核,Unbuntu Server 9.10

测试记录:
Key: 512的随机字符串
Value: 大约5k的随机字符串
每项记录数据大小:大约5.5k
计划插入数据100000条:5.5k*1000=5.5M*100=550M 数据量大约 550M。

注:key开始是用1k的随机字符串来测试,但是在测试mongoDB 报告key too large to index, 因此减小key的大小到512字节。

当没有任何数据的时候:
MongoDB的大小:
64M: (db.0, db.1, ..)data FIle
16M: (database.ns) name space index file.

TC的大小:
133K btree.tcb
256 fixed.tcf
517K hash.tch

Redis的大小:
VirtualMemFile: 41M redis-3546.vm
DB: 0M
注:redis的文件初始大小基本等于你设置的内存以及内存页的大小,可以自己调整。redis通过定时存盘的策略进行保存,定时策略可以自行设置。
通常情况下,redis的数据库必须<=内存,如果要让redis的数据库大于内存,那么必须在配置中打开vm_enabled选项(貌似没用,当插入数据超过内存后,会被Unbuntu的后台保护进程给杀掉,如果设置了最大使用的内存,则数据已有记录数达到内存限值后不能继续插入新值)。

key/value 功能:
Redis: 读写key/value,value可以有各种结构,但Value无索引。
MongoDB: 以collection组织,key如果不特别指定将由系统作为ObjectId产生(指定使用“_id”字段),value是结构化的,value里的字段可以被索引。
TokyoTyrant: 读写key/value,table 数据引擎支持结构化的value和字段索引,其它数据引擎不支持,b+tree可以用key索引。

基准测试机器:
虚拟机是跑在 2 CPU 2.26G Intel Core 2 Duo,内存为2G
虚拟机:
CPU 2核
内存 256M
操作系统:Unbuntu Server 9.10 32bit

使用软件版本:
* MongoDB: mongodb-linux-i686-2010-02-26
* TokyoTyrant: TT1.1.40; TC1.4.42
* Redis: 2010-03-01(GIT SRC)

启动:
redis-server ./redis.conf(设置了最大内存210兆:maxmemory 210000000, vm-enable=yes,vm-max-memory 20000000,vm-pages 1342177)
./ttserver -port 1974 /data/db/tt.tcb
bin/mongod -port 1974 –dbpath /data/db/mongo

MongoDB
如上所述测试添加10万条数据:
内存,刚开始的时候虚拟内存占用48564,物理内存占用 3432,在插入2000条数据后,虚拟内存到达143M,物理内存33M,内存增长很迅速。最后虚拟内存稳定在1048M,物理内存则在160M-211M徘徊。
CPU占用率最低的时候为6%,最高的时候达到30%,平时在8%-10%之间。
从测试看,每次分配DB空间的时候所有插入操作被冻结,最坏的一次插入2000条耗时1分多(这个时候正好有分配空间文件发生),平时,插入2000条数据大约耗时17-18秒。
最后MongoDB的数据文件总大小达到:977M

接着测试MongoDB读取10万条记录(非命中形式:该key是随机产生的,因此大都不会存在数据库中)

内存:虚拟内存稳定在1048M,物理内存占用在90M-94M。
CPU:最低占用8%,最高到45%;平时在10%-12%左右。
读取2000条记录大约耗时3-4秒,第一次用了6秒。

Redis
同样测试添加10万条数据:
内存,开始的时候忘记看了,大致较开始的虚拟内存占用112M,物理内存82M,在4万条记录的时候VM占用196M,物理内存占用163M,最后的时候VM占用237M,物理内存204M。
CPU:最低占用3%,最高的时候15%,平时在7%-11%之间。
当Redis向磁盘写入数据的时候,有变慢(2000条记录耗时21秒),平时存2000条记录大约耗时18-19秒左右。
不过没有设定maxmemory的时候,在大约写入 6万多个数据后服务器被挂掉。当设置最大使用内存(200M)后,达到内存限制,写入不了(已写入48136个数据),但是不会挂了。
Redis文件在写入48136个数据时候的大小(包括VM文件):277M,其中VM 41M,数据库236M。

接着测试Redis读取10万条记录(非命中形式:该key大都不会存在数据库中)
内存:虚拟内存237M,物理内存占用204M
CPU:在26%-43%

读取2000条记录大约耗时在3-4秒。

Tokyo Tyrant
如上所述测试添加10万条数据:采用默认配置参数运行TT B+Tree
内存:初始的时候VM: 76928 物理内存: 1232,在插入的过程内存的增加很少,在插入到4万条记录的时候虚拟内存仅为99540,物理内存23M,到最后虚拟内存117M,物理内存37M。
CPU占用率始终稳定在2%

在插入到5万条记录前,平均插入2000条耗时约19-20秒,到8万条记录前时候,插入2000条耗时20-22秒,再接下来的2万条,平均插入2000条耗时在慢慢增加并有震荡,28秒,最后到42秒(B+Tree的索引节点在内存中满了?可能需要调整参数?)。
TT的数据库只有一个文件大小为:589M

接着测试TT读取10万条记录(非命中形式:该key大都不会存在数据库中)
内存稳定在:VM110M;物理内存36M。
CPU:最低2%,最高6%,平时在4%

读取2000条记录大约耗时在7-8秒,偶尔6秒或9秒。

小结:
MongoDB和Redis写入数据不是直接写入磁盘,所以当重启系统时候没有存盘的数据将全部丢失。TT实际上也有内存缓冲,不过和前者相比要小的多。
以上测试并不完善,只是一个开始,比如没有测试小数据(以数字作为key,100字节Value),没有测试较大的数据(20K左右);没有测试在命中情况下的性能;没有测试并发读写的性能,据闻MongoDB的并发读写效率不是特别出色,MongoDB的特色在于支持的查询语言非常强大,其语法有点类似于面向对象的查询语言,几乎可以实现类似关系数据库单表查询的绝大部分功能,并实现了存储节点的自动sharding管理等配套功能;以及由于MongoDB是分布在多个文件中,当数据量远大内存,分布在足够多的文件的时候的性能;对开启同步日志后的Replication测试….对于TT来说,需要对TT的其它数据引擎进行测试,以及TT的各种数据引擎如何优化?TC/TT在mixi的实际应用当中,存储了2000万条以上的数据,同时支撑了上万个并发连接,是一个久经考验的项目。TC在保证了极高的并发读写性能的同时,具有可靠的数据持久化机制,同时还支持类似关系数据库表结构的hashtable以及简单的条件,分页和排序操作,是一个很棒的NoSQL数据库。TC的主要缺点是在数据量达到上亿级别以后,并发写数据性能会大幅度下降(读不受影响),NoSQL: If Only It Was That Easy提到,他们发现在TC里面插入1.6亿条2-20KB数据的时候,写入性能开始急剧下降。Redis本质上是一个Key-Value类型的内存数据库,很像memcached,整个数据库统统加载在内存当中进行操作,定期通过异步操作把数据库数据flush到硬盘上进行保存。因为是纯内存操作,Redis的性能非常出色,Redis最大的魅力是支持保存List链表和Set集合的数据结构,而且还支持对List进行各种操作,例如从List两端push和pop数据,取 List区间,排序等等,对Set支持各种集合的并集交集操作,此外单个value的最大限制是1GB,不像memcached只能保存1MB的数据,Redis可以用来实现很多有用的功能,比方说用他的List来做FIFO双向链表,实现一个轻量级的高性能消息队列服务,用他的Set可以做高性能的tag系统等等。另外Redis也可以对存入的Key-Value设置expire时间,因此也可以被当作一个功能加强版的memcached来用。

测试程序和详细记录见附件: testbench.tgz.zip

Refs:
* http://porteightyeight.com/2009/11/09/redis-benchmarking-on-amazon-ec2-flexiscale-and-slicehost/
* http://www.eb163.com/club/viewthread.php?tid=2470
* http://timyang.net/data/mcdb-tt-redis/
* http://www.javaeye.com/topic/524977
* http://bjclark.me/2009/08/04/nosql-if-only-it-was-that-easy/

摘自:http://www.cnblogs.com/riceball/archive/2010/03/05/MongoDB_Vs_Redis_Vs_TokyoTyrant.html

使用MongoDB更新数据时需要注意的地方[转]

最近项目里使用了MongoDB,遇到一些问题,可能不知道的很容易找了半天也没有头绪,总结一下:
1、update方法只更新一条记录
默认情况下update只更新符合查询条件的第一条找到的记录。而不像SQL里更新所有符合条件的记录。所以请按照需要手动添加 multi 这个参数。

2、update方法的更新参数
像下面这个语句
myColl.update( { _id: X }, {name: “Joe”, age: 20 });
会把符合条件的原纪录按照{name: “Joe”, age: 20 }完整替换,而不是简单的将name设为”Joe”,age设为20.
如果只想更改这2个值,而不是替换完整对象,应该写
myColl.update( { _id: X },{$set: {name: “Joe”, age: 20 }});