感谢那些已经回答了我之前的问题并让我走到这一步的人.
我有一个约25,000个向量的表,每个向量有48个维度,值为0-255.
我正在尝试开发一种Locality Sensitive Hash(http://en.wikipedia.org/wiki/Locality-sensitive_hashing)算法,用于查找近邻或最近邻点.
我目前的LSH功能如下:
def lsh(vector,r = 1.0,a = None,b = None):
if not a:
a = [normalvariate(10,4) for i in range(48)]
if not b:
b = uniform(0,r)
hashVal = floor((sum([a[i]*vector[i] for i in range(48)]) + b)/r)
return int(hashVal)
我现在的问题是:
答:我的代码的“normalvariate(10,4)”部分是否有最佳值?这是在random.normalvariate(http://docs.python.org/library/random.html#random.normalvariate)函数中构建的pythons,我用它来产生“d维向量,其中条目独立于稳定分布选择”.从我的实验来看,价值似乎并不重要.
B:在维基百科文章的顶部,它指出:
if d(p,q) <= R,then h(p) = h(q) with probability at least P1
if d(p,q) >= cR,then h(p) = h(q) with probability at most P2
这里提到的R值是否也是稳定分布部分中提到的R值. (http://en.wikipedia.org/wiki/Locality-sensitive_hashing#Stable_distributions)
C:与我之前的问题(B)有关.我发现在我的哈希函数中使用更高的R值将我的向量映射到更小范围的哈希值.有没有办法优化我的R值.
D:大概可以使用多少个表?
最佳答案
您可能想要查看“MetaOptimize” – 就像机器学习的Stack Overflow一样.
http://metaoptimize.com/qa
原文链接:https://www.f2er.com/python/439045.htmlhttp://metaoptimize.com/qa
您的问题实际上不是一个python或编程问题,该社区可能能够提供更多帮助.