<div dir="ltr"><br><br><div class="gmail_quote"><div dir="ltr">On Thu, Dec 17, 2015 at 5:13 PM Benoit Chesneau <<a href="mailto:bchesneau@gmail.com">bchesneau@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div class="gmail_quote"><div dir="ltr">On Thu, Dec 17, 2015 at 3:24 PM Fred Hebert <<a href="mailto:mononcqc@ferd.ca" target="_blank">mononcqc@ferd.ca</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 12/17, Benoit Chesneau wrote:<br>
>But what happen when I use `ets:tab2file/2` while keys are continuously<br>
>added at the end? When does it stop?<br>
><br>
<br>
I'm not sure what answer you expect to the question "how can I keep an<br>
infinitely growing table from taking an infinite amount of time to dump<br>
to disk" that doesn't require locking it to prevent the growth from<br>
showing up.<br></blockquote><div><br></div></div></div><div dir="ltr"><div class="gmail_quote"><div>well by keeping a version of the data at some point :) But that's not how it works unfortunately.</div></div></div><div dir="ltr"><div class="gmail_quote"><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
Do note that safe_fixtable/2 does *not* prevent new inserted elements<br>
from showing up in your table -- it only prevents objects from being<br>
taken out or being iterated over twice. While it's easier to create a<br>
pathological case with an ordered_set table (keeping adding +1 as keys<br>
near the end), it is not beyond the realm of possibility to do so with<br>
other table types (probably with lots of insertions and playing with<br>
process priorities, or predictable hash sequences).<br>
<br>
I don't believe there's any way to lock a public table (other than<br>
implicit blocking in match and select functions). If I were to give a<br>
wild guess, I'd say to look at ets:info(Tab,size), and have your<br>
table-dumping process stop when it reaches the predetermined size or<br>
meets an earlier exit. This would let you bound the time it takes you to<br>
dump the table, at the cost of possibly neglecting to add information<br>
(which you would do anyway -- you would just favor older info before<br>
newer info).  This would however imply reimplementing your own tab2file<br>
functionality.<br>
<br></blockquote><div><br></div></div></div><div dir="ltr"><div class="gmail_quote"><div>Good idea, i need to think a little more about it.. I wish it could be possible to fork an ets table at some point and only use this snapshot in memory like REDIS does literally by forking the process when dumping it. That would be useful...</div><div><br></div><div>Thanks for the answer!</div></div></div><div dir="ltr"><div class="gmail_quote"><br></div></div></blockquote><div><br></div><div>side note, but i am thinking that selecting keys per batch also limit the possible effects of the concurrent writes since it can work faster that way. though writing to the file is slow.</div><div><br></div><div>- benoit </div></div></div>