<html><head><meta http-equiv="Content-Type" content="text/html charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><blockquote type="cite">This seems flawed to me. Do you want resiliency, or shared storage?</blockquote><div>Ooooh.  Troll! :-)</div><div><br></div><div>Seriously though - as Max Lapshin points out, w/ the exception of doing some <i>very</i> interesting (read complex, and potentially destabilizing) architecting w/ infiniband, multiple links and cascade setups, you are going to be seriously bottle-necking on your shared storage.</div><div>And, to Garret's point, resiliency and shared storage are (kinda) orthogonal.  An appropriately spilled can of coke can wreak havoc to your shared storage, and BigCouch/Riak/Voldemort/... can be remarkably resilient.</div><div><br></div><div>A few years back, we migrated out of the "eggs in one basket" SAN approach to BigCouch. Our SAN setup was increasingly starting to look something that would give even Rube Goldberg nightmares, and the sheer amount of hackery associated with this was starting to keep me up at nights.</div><div><br></div><div>Anyhow, just my two bits...</div><div><br></div><div><div>
<div style="color: rgb(0, 0, 0); font-family: Helvetica; font-size: medium; font-style: normal; font-variant: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-size-adjust: auto; -webkit-text-stroke-width: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; "><div><div style="margin: 0in 0in 0.0001pt; "><font class="Apple-style-span" color="#1f497d" face="Calibri, sans-serif"><span class="Apple-style-span" style="font-size: 15px; "><b><i><div style="margin: 0px; font-style: normal; font-weight: normal; font-family: Calibri; "><a href="http://www.gravatar.com/avatar/204a87f81a0d9764c1f3364f53e8facf.png"><b><i>Mahesh Paolini-Subramanya</i></b></a></div></i></b></span></font></div><div style="margin: 0in 0in 0.0001pt; font-size: 12pt; font-family: 'Times New Roman', serif; "><span style="font-size: 11pt; font-family: Calibri, sans-serif; color: rgb(31, 73, 125); ">That Tall Bald Indian Guy...</span></div></div><div style="margin: 0in 0in 0.0001pt; font-size: 12pt; font-family: 'Times New Roman', serif; "><span style="font-size: 11pt; font-family: Calibri, sans-serif; color: rgb(31, 73, 125); "><div style="margin: 0px; font-family: Calibri; color: rgb(1, 108, 226); "><span style="text-decoration: underline; "><a href="https://plus.google.com/u/0/108074935470209044442/posts">Google+</a></span><span style="color: rgb(31, 73, 125); ">  | <a href="http://dieswaytoofast.blogspot.com/"><span style="color: rgb(1, 108, 226); ">Blog</span></a></span><span style="text-decoration: underline; "> </span><span style="color: rgb(31, 73, 125); ">  | <span style="color: rgb(1, 108, 226); "><a href="https://twitter.com/dieswaytoofast">Twitter</a></span></span><span style="color: rgb(31, 73, 125); ">  | </span><a href="http://www.linkedin.com/in/dieswaytoofast">LinkedIn</a></div></span></div></div>
</div>
<br><div><div>On Dec 10, 2012, at 9:18 AM, Garrett Smith <<a href="mailto:g@rre.tt">g@rre.tt</a>> wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite">Aye, as well, this is curious:<br><br><blockquote type="cite">we would like to make the solution more resilient by using shared storage<br></blockquote><br><br><br>On Mon, Dec 10, 2012 at 10:59 AM, Max Lapshin <<a href="mailto:max.lapshin@gmail.com">max.lapshin@gmail.com</a>> wrote:<br><blockquote type="cite">You speak about many servers but one SAN.<br>What for? Real throughput is limited about 3 gbps. It means that you will be<br>limited in writing no more than 10000 values ok 30kb per second.<br><br>There will be no cheap way to scale after this limit if you use storage, but<br>if you shard and throw away your raid, you can scale.<br><br><br><br>Maybe yo<br><br>On Monday, December 10, 2012, Sean D wrote:<br><blockquote type="cite"><br>Hi all,<br><br>We are currently running an application for a customer that stores a large<br>number of key/value pairs.  Performance is important for us as we need to<br>maintain a write rate of at least 10,000 keys/second on one server.  After<br>evaluating various key/value stores, we found Bitcask worked extremely<br>well<br>for us and we went with this.<br><br>The solution currently has multiple servers working independently of each<br>and we would like to make the solution more resilient by using shared<br>storage. I.e.  If one of the servers goes down, the others can pick up the<br>work load and add to/read from the same store.<br><br>I am aware that Riak seems to be the standard solution for a resilient<br>key-value store in the Erlang world, however from my initial<br>investigations,<br>this seems to work by duplicating the data between Riak nodes, and this is<br>something I want to avoid as the number of keys we are storing will be in<br>the range of 100s of GB and I would prefer that the shared storage is used<br>rather than data needing to be duplicated.  I am also concerned that the<br>overhead of Riak may prove a bottle-neck, however this isn't something<br>that<br>I have tested.<br><br>If anyone here has used a key/value store with a SAN or similar in this<br>way,<br>I'd be very keen to hear your experiences.<br><br>Many thanks in advance,<br>Sean<br>_______________________________________________<br>erlang-questions mailing list<br><a href="mailto:erlang-questions@erlang.org">erlang-questions@erlang.org</a><br>http://erlang.org/mailman/listinfo/erlang-questions<br></blockquote><br><br>_______________________________________________<br>erlang-questions mailing list<br><a href="mailto:erlang-questions@erlang.org">erlang-questions@erlang.org</a><br>http://erlang.org/mailman/listinfo/erlang-questions<br><br></blockquote>_______________________________________________<br>erlang-questions mailing list<br><a href="mailto:erlang-questions@erlang.org">erlang-questions@erlang.org</a><br>http://erlang.org/mailman/listinfo/erlang-questions<br></blockquote></div><br></div></body></html>