我试图最大化每秒插入。我目前大约有20k插入/秒。我的性能实际上降低了我使用的线程和cpu(我有16个核心可用)。 2个线程目前每秒在16核双处理器机器上的16个线程多。关于什么问题的任何想法?是因为我只使用一个mongod吗?它的索引是可能减慢事情吗?我需要使用分片吗?我不知道有没有办法分片,但也保持数据库封顶…
约束:必须处理大约300k次插入/秒,必须是自限制(上限),必须能够相对较快地查询
问题空间:必须处理主要手机公司的呼叫记录(大约300k次插入/秒),并使这些呼叫记录能够尽可能长时间(例如一周)
#!/usr/bin/perl use strict; use warnings; use threads; use threads::shared; use MongoDB; use Time::HiRes; my $conn = MongoDB::Connection->new; my $db = $conn->tutorial; my $users = $db->users; my $cmd = Tie::IxHash->new( "create" => "users","capped" => "boolean::true","max" => 10000000,); $db->run_command($cmd); my $idx = Tie::IxHash->new( "background"=> "boolean::true",); $users->ensure_index($idx); my $myhash = { "name" => "James","age" => 31,# "likes" => [qw/Danielle biking food games/] }; my $j : shared = 0; my $numthread = 2; # how many threads to run my @array; for (1..100000) { push (@array,$myhash); $j++; } sub thInsert { #my @ids = $users->batch_insert(\@array); #$users->bulk_insert(\@array); $users->batch_insert(\@array); } my @threads; my $timestart = Time::HiRes::time(); push @threads,threads->new(\&thInsert) for 1..$numthread; $_->join foreach @threads; # wait for all threads to finish print (($j*$numthread) . "\n"); my $timeend = Time::HiRes::time(); print( (($j*$numthread)/($timeend - $timestart)) . "\n"); $users->drop(); $db->drop();
解决方法
写入MongoDB目前获得一个全局写锁,虽然
collection level locking希望即将到来。通过使用更多的线程,你可能会引入更多的并发问题,因为线程在等待锁被释放时阻塞了。
索引也会减慢您的速度,为了获得最佳的插入性能,在加载数据后添加它们是理想的,但这并不总是可能的,例如,如果您使用唯一索引。
要真正最大限度地提高写性能,最好的选择是分片。这将给你一个更好的并发和更高的磁盘I / O容量,因为您在多台机器上分配写入。