<div>Thanks! I'll take a look.</div><br><br><div class="gmail_quote">On Sat, Feb 16, 2013 at 7:14 AM, Mahesh Paolini-Subramanya <span dir="ltr"><<a href="mailto:mahesh@ubnt.com" target="_blank">mahesh@ubnt.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word">Its pretty much a classic <a href="http://en.wikipedia.org/wiki/Active_queue_management" target="_blank">Active Queue Management </a>issue, i.e., its not the quantity of the traffic, but the "burst-y" nature of the traffic that can confound you.<div>
<br><div>There has been any amount of work done on this in the Networking field (just google any combination of RED, CoDel, AQM, and Van Jacobsen), but its only recently that some of the lessons have started making their way into the software/"cloud" field. (I gave<a href="http://www.slideshare.net/dieswaytoofast/can-your-service-survive-a-cold-start-sadly-probably-not" target="_blank"> a preso' about this at TechMesh last year</a>…)</div>
<div><br></div><div>For an erlang-baed implementation, take a look at Jesper Anderson's <a href="https://github.com/jlouis/safetyvalve" target="_blank"><i>safety</i></a><a href="https://github.com/jlouis/safetyvalve" target="_blank">valve</a>. It may not be distributed, but its certainly rigorously tested…</div>
<div><br></div><div>Cheers<span class="HOEnZb"><font color="#888888"><br><div>
<div style="text-indent:0px;letter-spacing:normal;font-variant:normal;text-align:-webkit-auto;font-style:normal;font-weight:normal;line-height:normal;text-transform:none;font-size:medium;white-space:normal;font-family:Helvetica;word-wrap:break-word;word-spacing:0px">
<div><div style="margin:0in 0in 0.0001pt"><font color="#1f497d" face="Calibri, sans-serif"><span style="font-size:15px"><b><i><div style="margin:0px;font-style:normal;font-weight:normal;font-family:Calibri"><a href="http://www.gravatar.com/avatar/204a87f81a0d9764c1f3364f53e8facf.png" target="_blank"><b><i>Mahesh Paolini-Subramanya</i></b></a></div>
</i></b></span></font></div><div style="margin:0in 0in 0.0001pt;font-size:12pt;font-family:'Times New Roman',serif"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:rgb(31,73,125)">That Tall Bald Indian Guy...</span></div>
</div><div style="margin:0in 0in 0.0001pt;font-size:12pt;font-family:'Times New Roman',serif"><span style="font-size:11pt;font-family:Calibri,sans-serif;color:rgb(31,73,125)"><div style="margin:0px;font-family:Calibri;color:rgb(1,108,226)">
<span style="text-decoration:underline"><a href="https://plus.google.com/u/0/108074935470209044442/posts" target="_blank">Google+</a></span><span style="color:rgb(31,73,125)">  | <a href="http://dieswaytoofast.blogspot.com/" target="_blank"><span style="color:rgb(1,108,226)">Blog</span></a></span><span style="text-decoration:underline"> </span><span style="color:rgb(31,73,125)">  | <span style="color:rgb(1,108,226)"><a href="https://twitter.com/dieswaytoofast" target="_blank">Twitter</a></span></span><span style="color:rgb(31,73,125)">  | </span><a href="http://www.linkedin.com/in/dieswaytoofast" target="_blank">LinkedIn</a></div>
</span></div></div>
</div>
<br></font></span><div><div><div class="h5"><div>On Feb 15, 2013, at 9:17 PM, sasa <<a href="mailto:sasa555@gmail.com" target="_blank">sasa555@gmail.com</a>> wrote:</div><br></div></div><blockquote type="cite"><div>
<div class="h5">Hello,<div><br></div><div>A while ago I encountered the following situation:</div><div><br></div><div>I had the gen_server base process P which would receive messages, and handle them by sending some data over the network. The messages were coming faster than they were being sent. I established the reason for this was the "randomness" of my network conditions. I also established that sending more messages at once was almost as fast as sending one message, i.e. the network push time wasn't highly dependent on the message size.</div>

<div><br></div><div>To tackle this in a generic way, I devised an approach which has served me well in multiple places. I was repeatedly googling whether some similar solution exists, but I couldn't find it. Now, I'm not sure if I have reinvented a wheel, or the approach is not optimal, so I'm asking if you are aware of similar approaches, and are there any faults in this one?</div>

<div><br></div><div>The approach I took is following:</div><div><br></div><div><div>I split the server in two processes: the "facade" and the worker. The facade acceptes requests from clients, and stores them internally. While the worker is doing its work, new messages are stored in the facade. When the worker is available, it will take all accumulated messages from the facade and process them.</div>

</div><div><br></div><div>These are the steps:</div><div>1. The facade receives messages, stores data in its list, and notifies the worker (without sending actual data), that some work is ready.</div><div>2. Upon receiving the notification, the worker first flushes its message queue by doing repeated receive ... after 0 as long as there are messages in the queue.</div>

<div>3. Then the worker pulls all messages from the facade. This is a gen_server:call to the facade which will return all messages, and at the same time remove them from its state.</div><div>4. Finally, the worker processes all messages.</div>

<div><br></div><div><br></div><div>I found this approach useful because the delay on the worker adapts to the incoming message rate. </div><div>If the worker can handle messages at the incoming rate, everything works without delay. </div>

<div>If messages can't be handled at the incoming rate, the worker's delay will increase to accomodate the higher load. In other words, the worker will try to compensate the load by bulk processing messages. Obviously, this is useful only when process_time(N messages) < N * process_time(1 message).</div>

<div><br></div><div>Another benefit I found is that I can vary the implementation of the facade i.e. I can store messages using different algorithms. In the first implementation, I stored messages in a list. In one variation, I used hash which allowed me to eliminate duplicate messages. Another variant was truncation of the list, which allowed me to discard old messages if the queue was getting too large.</div>

<div><br></div><div>As I said, this has served me well in the production for more than a year, and I have finally found the time to make a generic library out of it. Before putting it public, I'd like to check if there are similar solutions, or alternative approaches?</div>

<div><br></div><div>Thanks, and best regards,</div><div>Sasa</div></div></div><div class="im">
_______________________________________________<br>erlang-questions mailing list<br><a href="mailto:erlang-questions@erlang.org" target="_blank">erlang-questions@erlang.org</a><br><a href="http://erlang.org/mailman/listinfo/erlang-questions" target="_blank">http://erlang.org/mailman/listinfo/erlang-questions</a><br>
</div></blockquote></div><br></div></div></div></blockquote></div><br>