One can easily handle sets in mnesia by storing a list with items. Example:<br><br>-record(group, {id, members, ...}).<br>-record(user, {id, ...}).<br><br>and then have #group.members keep a list of #user.id. This allow one to quickly 
<br>find the users in a given group.<br><br><br>However, this practice can in certain applications lead to huge lists. <br>* search engines mapping keywords to documents<br>* web-two-dot-oh-ishious tag-your-{bookmark,images,...} sites with many users
<br><br>A keyword could easily be used in thousand of documents. Having 10000 documents in the set<br>would lead to huge records that are slower than necessary to update.<br><br>This is mostly a theoretical question, as I havent hit this limit yet. It is just a problem
<br>i have been thinking about for some time, as it sometimes pops up when i think through<br>interesting coding projects.<br><br>Have anyone experienced a problem with sets in mnesia records growing too large, and worked 
<br>around it in some clever way. Or does things run on suprisingly well even with sets that grow to ten <br>thousand or more members?<br><br><br>