如何防止发现安全的URL?

如果我有一个用于获取消息的URL,我创build它就像这样: http : //www.mydomain.com/somelonghash123456etcetc这个URL允许其他服务POST消息。 search引擎机器人有可能find它吗? 我不想把它放在我的robots.txt文件中,因为这会将它暴露给看到机器人文件的任何人。

当然,我会在应用程序中进行其他身份validation,但没有任何人发现该URL是第一步。

任何常见的方法?

search引擎不可能find它,如果它没有链接任何地方(因为这是search引擎find其他信息的唯一途径)。 为了确保search引擎不会通过robots.txtfind它并保密,请使用双重哈希值:

http://example.com/asdfghjk/12345678 

您的robots.txt将不允许在asdfghjk下面的任何内容:

 User-agent: * Disallow: /asdfghjk/ 

但是任何不知道完整path的人都不能从第二个url部分看到它。

如果您的身份validation正在工作,则没有理由隐藏url。 我宁愿专注于此。

你可以在/ secretpage [hash] 123456etcetc中join一些可识别的东西,然后grep apache日志,这是一个自动化的脚本,当一个ip试图访问一个秘密页面的URL时会阻止访问。

但实际上,miademora是正确的。 让你的身份validation安全(2因素?),并通过默默无闻的安全。