Articles of 谷歌

Google Compute Engine虚拟机实例防火墙

我最近注册了Google Compute,并创build了一个虚拟机实例Debian 9我有防火墙问题。尝试从search谷歌很多方法,但仍然无法打开端口。 我在这里禁用了Debian的内置防火墙input链接描述 我制定了防火墙规则 图片 但仍然港口80说我的IPclosures 请build议如何做到这一点

无法使用Putty与Google云连接

我无法使用Putty与我的实例连接。 我得到错误“无法使用密钥文件…..(打开–ssh2私钥)。使用用户名<>。我已经应用所需的公钥和私钥。我也运行了默认防火墙的命令设置

谷歌机器人不能正确发送空格

出于某种原因,“MediaPartners-Google”(Adsense)bot尚未能正确parsing带有空格的链接。 例如,假设我有这个链接: /info/parking spaces Adsense机器人请求触发这个错误: 从客户端(%)检测到潜在危险的Request.Path值。 当看日志时,我看到这个: /信息/停车%20spaces 不知何故, %20正在发送,而不是解释为一个空间。 这是一个正常的日志看起来像: /信息/停车位+ 这只是一个机器人,其他的谷歌机器人parsing它罚款。 我看到它发生在IIS 10和8.5

将文件从文件系统迁移到Google云端硬盘时超出用户的使用率

我们正在尝试将文件从文件系统迁移到Google驱动器,总大小为75TB。 我们正在使用cloudberry工具来执行此操作,并且正在获取“超出用户访问量”。 任何人都可以请帮助我们,或者就此build议我们。 提前致谢。

Google云端硬盘上的文件重复

从Google云端硬盘中删除重复文件的最佳方法是从社区寻求一些build议。 理想情况下,希望能够在云端完成任务,而无需下载所有内容并在本地重复数据删除,但是我可以使用任何可能的解决scheme。 谈论一个非常大的谷歌驱动器与一个非常嵌套的文件夹结构。 谢谢

Firefox证书颁发机构:Google Internet Authority G2在哪里?

我正在检查我的Firefox“证书pipe理器” – 我无法find这个Google证书: serial#: ‎ 01 00 21 25 88 b0 fa 59 a7 77 ef 05 7b 66 27 df issuer: CN = GeoTrust Global CA/O = GeoTrust Inc./C = US subject: CN = Google Internet Authority G2/O = Google Inc/C = US 如果我尝试导入'cer'文件本身; Firefox说: /!\此证书已经作为证书颁发机构安装。 但是当我浏览证书pipe理器时, 我看不到任何有“Google”的东西。 对于“G”列表,我只有: 1. Generalitat Valencia 2. GeoTrust […]

必须通过二级域名进入谷歌网站

我和这个人有同样的问题。 我拥有两个域名托pipe在谷歌网站,mydomain.com和mydomain.net。 当我进入mydomain.com时,它会将我redirect到www.mydomain.com上的网站(这是所需的行为)。 这也曾用于mydomain.net,但现在当我去到mydomain.net,我得到一个谷歌404。要查看内容,我必须去** www。** mydomain.net。 据我所知,这两个域的DNS设置和Google应用程序设置是相同的。 有没有人知道会发生什么?

301redirect和SEO

我有一个使用以下结构的网站, domain.com/12/43/45/some-post/ 当人们链接到我的网站时,一些cms的删除后面的斜杠并把它变成, domain.com/12/43/45/some-post 这两个url是指相同的内容,我的问题是这是考虑重复的内容,我应该做一个301redirect到顶部的url?

一个网站的多个站点地图

我有一个网站涵盖了几个不同的兴趣领域 – 在逻辑上,你可以把它看成是主网站下的许多“迷你”网站的集合。 由于这些地区不一定是相关的,我不想使用一个'大'的网站地图,因为在网站的不同部分的网页将“相互排斥”对方排名(因为在“ABC”部分的网页将有内容讨论“ABC ',而页面部分'XYZ'将主要有讨论'XYZ'的内容。 我想知道是否可以创build多个站点地图(每个站点都包含我主站点下的一个单独的兴趣区域),并将这些站点地图提交给Google,同时也可以为我的主站点提供一个“主站点”站点地图。 如果是的话,有人可以提供一个小例子在这里,或指向我可以在哪里读我自己,如何分割或分割一个站点地图到更小的站点地图文件,其中每个站点包括单独的“区域” 。 顺便说一下,我已经查阅了Google文档,而AFAIK(至less明确地)没有提供这些信息。

301redirect或禁止在robots.txt?

我最近要求在ServerFault上redirect301 ,我没有得到一个妥善解决我的问题,但现在我有一个新的想法: 使用robots.txt禁止从我的网站某些URL被“抓取”。 我的问题很简单:在从一个专有技术从自定义CMS迁移到WordPress之后,我们有很多Google在新网站上找不到的URL ,并且转到404页面。 这对我们的PageRank和search是不利的,因为Google仍然认为这些页面是活的。 我们有一个不起作用的URL列表,我试图redirect到好的。 问题是, 他们有两万人 ,没有机会用正则expression式来解决问题。 我们必须做一个一个的301redirect,这是一个任务的地狱。 但是我想知道: 我们能不能将robots.txt中的所有不良url列在“Disallow:”前缀中 ,这样Google就不会为它们编制索引了? 这是一个坏主意吗?