你知道如何使用 OxyLabs 实时网页爬虫吗?这是 OxyLabs 官方最全面的介绍。
快速入门
HTML Crawler API 可帮助您进行繁重的数据检索操作。您可以使用 HTML Crawler API 访问各种公共页面。它能毫不费力地提取网络数据,不会出现任何延迟或错误。
HTML 抓取程序应用程序接口使用 基本 HTTP 身份验证 需要发送用户名和密码。
这是迄今为止开始使用 HTML Crawler API 最快的方法。您将向 https://ip.oxylabs.io 使用 实时 整合方法。不要忘记替换 用户名 和 密码 使用代理用户凭据。
curl --user "USERNAME:PASSWORD" 'https://realtime.oxylabs.io/v1/queries' -H "Content-Type: application/json" -d '{"source":"universal", "url":"https://ip.oxylabs.io"}'
如果您有任何本文件未涉及的问题,请联系您的客户经理或我们的支持人员,地址是 [email protected].
整合方法
HTML Crawler API 支持三种集成方法,它们都有各自独特的优势:
- 推拉式.使用这种方法,现在需要与我们的端点保持活动连接,以检索数据。在发出请求后,我们的系统会在任务完成后自动 ping 用户服务器(请参阅 回调).这种方法可以节省计算资源,而且易于扩展。
- 实时.该方法要求用户与我们的端点保持活动连接,以便在任务完成时成功获取结果。这种方法可以在一个服务中实现,而推拉法则需要两个步骤。
- 超级用户接口.这种方法与实时方法非常相似,但用户可以使用 HTML Cralwer 作为代理,而不是向我们的端点发布数据。要检索数据,用户必须设置一个代理端点,并向所需的 URL 发送 GET 请求。必须使用标头添加其他参数。
我们推荐的数据提取方法是 推拉式.
推拉式
这是最简单、最可靠、最值得推荐的数据传输方法。在推拉式方案中,您向我们发送查询,我们向您返回工作 本我工作完成后,您可以使用 本我 中检索内容 /结果 端点。你可以自己检查作业完成状态,也可以设置一个能接受 POST 查询的简单监听器。
这样,一旦作业准备就绪,我们就会向您发送回调消息。在本例中,结果将自动 上传到您的 S3 存储桶 名为 您的邮筒名称.
单一查询
以下端点将处理对一个关键字或 URL 的单次查询。API 将返回一条确认信息,其中包含任务信息,包括任务 本我.您可以使用它来检查任务完成状态 本我或者,您也可以要求我们在扫描任务完成后 ping 您的回调端点,方法是添加 回调URL 在查询中。
邮寄 https://data.oxylabs.io/v1/queries
您需要在 JSON 主体中将查询参数作为数据发布。
curl --user user:pass1\
'https://data.oxylabs.io/v1/queries' \
-H "Content-Type: application/json"\
-d '{"source":"universal", "url":"https://stackoverflow.com/questions/tagged/python", "callback_url":"https://your.callback.url", "storage_type":"s3", "storage_url":"your_bucket_name"}'
API 将以 JSON 格式响应查询信息,并将其打印在响应体中,与此类似:
{
"callback_url":"https://your.callback.url"、
"client_id":5,
"created_at":"2019-10-01 00:00:01",
"域":"com"、
"geo_location": null、
"id":"12345678900987654321",
"限制":10,
"locale": null、
"pages":1,
"parse": false、
"render": null、
"url":"https://stackoverflow.com/questions/tagged/python"、
"源":"universal"、
"start_page":1,
"状态":"pending"、
"storage_type":"s3",
"storage_url":"YOUR_BUCKET_NAME/12345678900987654321.json",
"subdomain":"www"、
"updated_at":"2019-10-01 00:00:01",
"user_agent_type":"desktop"、
"_链接":[
{
"rel":"self"、
"href":"http://data.oxylabs.io/v1/queries/12345678900987654321",
"method":"GET"
},
{
"rel":"results"、
"href":"http://data.oxylabs.io/v1/queries/12345678900987654321/results",
"method":"GET"
}
]
}
检查工作状态
如果您的查询有 回调URL我们会在扫描任务完成后向您发送一条包含内容链接的信息。但是,如果没有 回调URL 在查询中,您需要自己检查任务状态。为此,您需要使用 href 根据 rel:自我 在您向我们的 API 提交查询后收到的响应信息中。它应该与下面的内容相似: http://data.oxylabs.io/v1/queries/12345678900987654321.
GET https://data.oxylabs.io/v1/queries/{id}
查询此链接将返回工作信息,包括其 地位.有三种可能 地位 价值观
未决 |
任务仍在队列中,尚未完成。 |
完成的 |
任务完成后,您可以通过在 href 根据 rel:成果 : http://data.oxylabs.io/v1/queries/12345678900987654321/results |
有问题 |
任务出现了问题,我们无法完成任务,很可能是由于目标网站方面的服务器出错。 |
curl --user user:pass1 'http://data.oxylabs.io/v1/queries/12345678900987654321'
API 将在响应体中打印 JSON 格式的查询信息。请注意,任务 地位 改为 完成的.现在您可以通过查询 http://data.oxylabs.io/v1/queries/12345678900987654321/results.
您还可以看到任务已被 updated_at 2019-10-01 00:00:15 - 查询需要 14 秒才能完成。
{
"client_id":5,
"created_at":"2019-10-01 00:00:01",
"域":"com"、
"geo_location": null、
"id":"12345678900987654321",
"限制":10,
"locale": null、
"pages":1,
"parse": false、
"render": null、
"url":"sofa"、
"源":"universal"、
"start_page":1,
"状态":"done"、
"subdomain":"www"、
"updated_at":"2019-10-01 00:00:15",
"user_agent_type":"desktop"、
"_链接":[
{
"rel":"self"、
"href":"http://data.oxylabs.io/v1/queries/12345678900987654321",
"method":"GET"
},
{
"rel":"results"、
"href":"http://data.oxylabs.io/v1/queries/12345678900987654321/results",
"method":"GET"
}
]
}
检索工作内容
通过检查作业的状态,一旦知道可以检索作业,就可以使用 href 根据 rel:成果 在我们的初始响应中。它看起来应该与此类似: http://data.oxylabs.io/v1/queries/12345678900987654321/results.
GET https://data.oxylabs.io/v1/queries/{id}/results
通过设置 "任务状态",可以自动检索结果,而无需定期检查任务状态。 回调 服务。用户需要指定运行回调服务的服务器的 IP 或域。当我们的系统完成一项任务时,它将向所提供的 IP 或域发送一条信息,回调服务将下载结果,如 回调实现示例.
curl --user user:pass1 'http://data.oxylabs.io/v1/queries/12345678900987654321/results'
API 将返回工作内容:
{
"结果":[
{
"content":"<!
内容
",
"created_at":"2019-10-01 00:00:01",
"更新时间":"2019-10-01 00:00:15",
"页":1,
"url":"https://stackoverflow.com/questions/tagged/python"、
"job_id":"12345678900987654321",
"status_code":200
}
]
}
回调
回调是一个 职位 我们会向您的机器发送请求,告知数据提取任务已完成,并提供下载刮擦内容的 URL。这意味着您不再需要 检查工作状态 手动操作。一旦数据到齐,我们会通知您,您现在需要做的就是 取回.
# 请查看 Python 和 PHP 代码示例。
回调输出示例
{
"created_at":"2019-10-01 00:00:01",
"updated_at":"2019-10-01 00:00:15",
"locale":null、
"client_id":163、
"user_agent_type": "desktop"、
"源": "universal"、
"pages":1、
"子域": "www"、
"status": "done"、
"start_page":1、
"parse":0、
"render":null、
"priority":0、
"ttl":0、
"origin": "api"、
"persist":true、
"id":"12345678900987654321",
"callback_url": "http://your.callback.url/"、
"url": "https://stackoverflow.com/questions/tagged/python"、
"domain": "de"、
"limit":10、
"geo_location":null、
{...}
"_links":[
{
"href":"https://data.oxylabs.io/v1/queries/12345678900987654321",
"method": "GET"、
"rel": "self"
},
{
"href":"https://data.oxylabs.io/v1/queries/12345678900987654321/results",
"method": "GET"、
"rel": "results" }
}
],
}
批量查询
HTML 抓取器 API 还支持执行多个关键词,每批最多可执行 1,000 个关键词。以下端点将向提取队列提交多个关键词。
邮寄 https://data.oxylabs.io/v1/queries/batch
您需要在 JSON 主体中将查询参数作为数据发布。
系统会将每个关键字作为一个单独请求来处理。如果您提供了回调 URL,则每个关键字都会收到一个单独的调用。否则,我们的初始响应将包含任务 本我的所有关键字。例如,如果您发送了 50 个关键字,我们将返回 50 个唯一的职位。 本我s.
重要! 询问 是唯一一个可以有多个值的参数。所有其他参数对于该批次查询都是一样的。
curl --user user:pass1 'https://data.oxylabs.io/v1/queries/batch' -H 'Content-Type: application/json' \ -d'@keywords.json'。
keywords.json 内容:
{
"url":[
"https://stackoverflow.com/questions/tagged/python"、
"https://stackoverflow.com/questions/tagged/golang"、
"https://stackoverflow.com/questions/tagged/php"
],
"源":"通用"、
"callback_url":"https://your.callback.url"
}
API 将以 JSON 格式响应查询信息,并将其打印在响应体中,与此类似:
{
"查询":[
{
"callback_url":"https://your.callback.url"、
{...}
"created_at":"2019-10-01 00:00:01",
"域":"com"、
"id":"12345678900987654321",
{...}
"url":"https://stackoverflow.com/questions/tagged/python"、
"来源":"universal"、
{...}
"rel":"results"、
"href":"http://data.oxylabs.io/v1/queries/12345678900987654321/results",
"method":"GET"
}
]
},
{
"callback_url":"https://your.callback.url"、
{...}
"created_at":"2019-10-01 00:00:01",
"域":"com"、
"id":"12345678901234567890",
{...}
"url":"https://stackoverflow.com/questions/tagged/golang"、
"来源":"universal"、
{...}
"rel":"results"、
"href":"http://data.oxylabs.io/v1/queries/12345678901234567890/results",
"method":"GET"
}
]
},
{
"callback_url":"https://your.callback.url"、
{...}
"created_at":"2019-10-01 00:00:01",
"域":"com"、
"id":"01234567899876543210",
{...}
"url":"https://stackoverflow.com/questions/tagged/php"、
"来源":"universal"、
{...}
"rel":"results"、
"href":"http://data.oxylabs.io/v1/queries/01234567899876543210/results",
"method":"GET"
}
]
}
]
}
获取通知程序 IP 地址列表
您可能希望将向您发送回调信息的 IP 列入白名单,或为其他目的获取这些 IP 的列表。这可以通过 获取在这个端点上: https://data.oxylabs.io/v1/info/callbacker_ips.
curl --user user:pass1 'https://data.oxylabs.io/v1/info/callbacker_ips'
API 将返回向您的系统发出回调请求的 IP 列表:
{
"ips":[
"x.x.x.x"、
"y.y.y.y"
]
}
上传到存储器
默认情况下,RTC 任务结果存储在我们的数据库中。这意味着您需要查询我们的结果端点并自行检索内容。自定义存储功能允许您将结果存储在自己的云存储中。该功能的优势在于,您无需为了获取结果而发出额外请求,所有内容都会直接存储到您的存储桶中。
我们支持亚马逊 S3 和谷歌云存储。如果您想使用其他类型的存储,请联系您的客户经理,讨论功能交付时间表。
亚马逊 S3
要将作业结果上传到 Amazon S3 存储桶,请为我们的服务设置访问权限。为此,请访问 https://s3.console.aws.amazon.com/ > S3 > 存储 > 桶名称(如果没有,请新建) > 权限 > 桶策略

您可以在此找到水桶政策 JSON 或右侧的代码示例区。不要忘记在 您的邮筒名称.通过该策略,我们可以向您的邮筒写入内容,允许您访问上传的文件,并了解邮筒的位置。
谷歌云存储
要将作业结果上传到您的 Google Cloud Storage 存储桶,请为我们的服务设置特殊权限。为此,请使用 存储.对象.创建 权限并将其分配给 Oxylabs 服务帐户电子邮件 [email protected].


使用方法
要使用此功能,请在请求中指定两个附加参数。了解更多信息 这里.
上传路径如下 YOUR_BUCKET_NAME/job_ID.json.您可以在提交请求后从我们收到的回复正文中找到职位 ID。在 本例 工作编号为 12345678900987654321.
{
"版本":"2012-10-17",
"Id":"Policy1577442634787",
"声明":[
{
"Sid":"Stmt1577442633719"、
"效果":"允许"、
"校长":{
"AWS":"arn:aws:iam::324311890426:user/oxylabs.s3.uploader"
},
"Action":"s3:GetBucketLocation"、
"资源":"arn:aws:s3:::YOUR_BUCKET_NAME" }.
},
{
"Sid":"Stmt1577442633719"、
"效果":"允许"、
"校长":{
"AWS":"arn:aws:iam::324311890426:user/oxylabs.s3.uploader"
},
"Action":[
"s3:PutObject"、
"s3:PutObjectAcl"。
],
"资源":"arn:aws:s3:::YOUR_BUCKET_NAME/*"。
}
]
}
实时
数据提交与推拉式方法相同,但使用实时方法时,我们将在连接打开时返回内容。您向我们发送一个查询,连接保持打开,我们检索内容并将其发送给您。处理此问题的端点如下:
邮寄 https://realtime.oxylabs.io/v1/queries
开放连接的超时限制为 100 秒。因此,在极少数负载较重的情况下,我们可能无法确保将数据发送给您。
您需要在 JSON 主体中将查询参数作为数据发布。详情请参阅示例。
curl --user user:pass1 'https://realtime.oxylabs.io/v1/queries' -H "Content-Type: application/json" \
-d '{"source":"universal", "url":"https://stackoverflow.com/questions/tagged/python"}'
打开连接时将返回的响应体示例:
{
"结果":[
{
"content":"
内容
"
"created_at":"2019-10-01 00:00:01",
"更新时间":"2019-10-01 00:00:15",
"id": null、
"page":1,
"url":"https://stackoverflow.com/questions/tagged/python"、
"job_id":"12345678900987654321",
"status_code":200
}
]
}
超级用户接口
如果您曾经使用过普通代理进行数据搜刮,那么集成 SuperAPI 传输方法将轻而易举。您只需将我们的入口节点用作代理,使用 HTML Crawler API 凭据进行授权,然后忽略证书即可。在 cURL 这是 -k 或 --不安全.您的数据将通过开放连接发送给您。
GET realtime.oxylabs.io:60000
超级用户接口只支持少量参数,因为它 仅适用于 直接 数据源 其中提供了完整的 URL。这些参数应作为标头发送。这是一份可接受的参数列表:
X-OxySERPs-User-Agent-Type |
虽然无法指明特定的 User-Agent,但您可以让我们知道您使用的浏览器和平台。支持的用户代理列表如下所示 这里. |
如果您在设置超级用户接口时需要帮助,请通过以下方式与我们联系 [email protected].
curl -k \ -x realtime.oxylabs.io:60000\ -U user:pass1 -H "X-OxySERPs-User-Agent-Type: desktop_chrome" \ "https://stackoverflow.com/questions/tagged/python"
内容类型
HTML 抓取程序 API 返回 原始HTML.
下载图片
可以通过 HTML Crawler API 下载图像。如果通过 SuperAPI 下载,只需将输出保存到图片扩展名即可。例如
curl -k -x realtime.oxylabs.io:60000 -U user:pass1 "https://example.com/image.jpg" >> image.jpg
如果您使用 推拉式 或 实时 方法,您需要添加 content_encoding 参数的值为 base64.收到结果后,您需要解码来自 内容 转换成字节并保存为图像文件。右侧有一个 Python 示例。
数据来源
HTML Crawler API 接受 URL 以及其他参数,如 User-Agent 类型、代理位置等。请参阅此方法,我们将其称为 直接下文将对此进行说明。
HTML Crawler API 能够在刮擦时渲染 JavaScript。这样,您就能从网页中获取更多数据,并获得屏幕截图。
如果您对文件的任何部分有疑问,请致电我们 [email protected] 或联系您的客户经理。
直接
![]()
万有 源的目的是检索互联网上任何 URL 的内容。 职位-将 JSON 格式的参数发送到以下端点,将把指定的 URL 提交到提取队列。
查询参数
| 参数 | 说明 | 默认值 |
| 消息来源 | 数据来源 | 万有 |
| 网址 | 通用网页的直接 URL(链接 | – |
| 用户代理类型 | 设备类型和浏览器。完整列表如下 这里。 | 桌面 |
| 地理位置 | 用于检索数据的代理地理位置。支持位置的完整列表如下 这里。 | |
| 地点 | 正如 Accept-Language 标头所期望的那样。 | |
| 给予 | 启用 JavaScript 渲染。在目标需要 JavaScript 加载内容时使用。仅适用于推拉(又称回调)方法。该参数有两个可用值:html(获取原始输出)和 png(获取 Base64 编码的截图)。 | |
| content_encoding | 如果要下载图像,请添加此参数。了解更多信息 这里。 | base64 |
| 背景 | Base64 编码的 POST 请求正文。它只有在 http_method 设置为 post 时才有用。 | – |
| 内容 | ||
| 背景 | 递上自己的饼干 | – |
| 饼干 | ||
| 背景 | 指明是否希望扫描程序跟踪重定向(带有目标 URL 的 3xx 响应),以获取重定向链末端 URL 的内容。 | – |
| follow_redirects | ||
| 背景 | 传递自己的标头 | – |
| 页眉 | ||
| 背景 | 如果您想通过 Universal scraper 向目标 URL 发出 POST 请求,请将其设置为 "发布"。 | 获取 |
| http_method | ||
| 背景 | 如果您想在多个请求中使用同一个代理,可以使用此参数。只需将会话设置为任意字符串,我们就会为该 ID 分配一个代理,并最多保留 10 分钟。之后,如果您使用相同的会话 ID 发出另一个请求,我们就会为该特定会话 ID 分配一个新的代理。 | – |
| session_id | ||
| 背景 | 定义一个自定义 HTTP 响应代码(或其中的几个),我们应根据该代码认为刮擦成功并将内容返回给您。如果您希望我们返回 503 错误页面或在其他一些非标准情况下,这可能会很有用。 | – |
| 成功状态代码 | ||
| 回调URL | URL 到您的回调端点。 | – |
| 存储类型 | 存储服务提供商。我们支持 Amazon S3 和 Google Cloud Storage。这些存储服务提供商的 storage_type 参数值分别为 s3 和 gcs。完整的实现可以在 上传到存储器 页。此功能只能通过推拉(回调)方法使用。 | – |
| 存储URL | 您的存储桶名称。仅适用于推挽(回调)方法。 | – |
| - 所需参数 | ||
在本例中,应用程序接口将以推拉方式检索一个通用产品页面。所有可用参数都包含在内(尽管在同一请求中并非总是必要或兼容),以便让您了解如何格式化您的请求:
curl --user user:pass1
'https://data.oxylabs.io/v1/queries' \
-H "Content-Type: application/json"\
-d '{"source": "universal", "url": "https://stackoverflow.com/questions/tagged/python", "user_agent_type": "mobile", "context":[{"key": "headers", "value":{"Accept-Language": "en-US", "Content-Type": "application/octet-stream", "Custom-Header": "custom header content"}},{"key": "cookies", "value":[{"key": "NID", "value":"1234567890"},{"key":"1P JAR","value":"0987654321"}]},{"key":"follow_redirects","value":true},{"key":"http_method","value":"post"},{"key":"content","value":"YmFzZTY0RW5jb2RlZFBPU1RCb2R5"},{"key":"successful_status_codes","value":[808,909]}]}
以下是实时模式下的相同示例:
curl --user user:pass1
'https://data.oxylabs.io/v1/queries' \
-H "Content-Type: application/json"\
-d '{"source":"universal", "url":"https://stackoverflow.com/questions/tagged/python", "user_agent_type":"mobile", "context":{"key":"headers", "value": ["Accept-Language":"en-US","Content-Type":"application/octet-stream","Custom-Header":"自定义标题内容"]},{"key":"cookies","value":[{"key":"NID","值":"1234567890"},{"key":"1P JAR","值":"0987654321"},{"key":"follow_redirects", "value": true}, {"key":"http_method", "value":"post"}, {"key":"内容","值":"base64EncodedPOSTBody"}, {"key":"successful_status_codes", "value": [303, 808, 909]}]}]}'
并通过超级用户接口(SuperAPI):
# GET 请求可以如下所示: curl -k \ -x http://realtime.oxylabs.io:60000 \ -U user:pass1 "https://stackoverflow.com/questions/tagged/python" \ -H "X-OxySERPs-Session-Id:1234567890abcdef"\H -H "X-OxySERPs-Geo-Location:India" (印度 -H "Accept-Language: en-US"\ -H "Content-Type: application/octet-stream" (内容类型:应用程序/八进制流 -H "Custom-Header: custom header content" (自定义头内容 -H "Cookie:nid=1234567890; 1p_jar=0987654321" \\H "X-Status-Code. -H "X-Status-Code:303, 808, 909" # POST请求具有相同的结构,但包含一个参数,指定它是一个POST请求: curl -X POST \ -k \ -x http://realtime.oxylabs.io:60000 \ -U user:pass1 "https://stackoverflow.com/questions/tagged/python"\ -H "X-OxySERPs-Session-Id:1234567890abcdef" \ -H "X-OxySERPs-Geo-Location:India" (印度 -H "Custom-Header: custom header content" (自定义头内容 -H "Cookie:nid=1234567890; 1p_jar=0987654321" \\H "X-Status Code. -H "X-Status-Code:303, 808, 909"
参数值
地理位置
支持的地理位置完整列表以 CSV 格式提供 这里.
"阿拉伯联合酋长国 "阿尔巴尼亚 "亚美尼亚 "安哥拉 "阿根廷 "澳大利亚 ... "乌拉圭 "乌兹别克斯坦 "委内瑞拉玻利瓦尔共和国 越南 "南非" "津巴布韦
HTTP_Method
通用爬虫支持两种 HTTP(S) 方法: 获取 (默认)和 职位.
"GET"、 "POST
渲染
Universal Crawler 可渲染 Javascript 并返回渲染的 HTML 文档或 PNG 网页截图。
"html"、 "png
User_Agent_Type
下载完整列表 用户代理类型 JSON 中的值 这里.
[
{
"user_agent_type":"桌面"、
"描述":"随机桌面浏览器用户代理"
},
{
"user_agent_type":"desktop_firefox"、
"描述":"最新版桌面火狐浏览器的随机用户代理"。
},
{
"user_agent_type":"desktop_chrome"、
"description":"最新版桌面 Chrome 浏览器的随机用户代理"。
},
{
"user_agent_type":"desktop_opera"、
"description":"最新版本桌面 Opera 的随机用户代理"。
},
{
"user_agent_type":"desktop_edge"、
"description":"桌面边缘最新版本之一的随机用户代理"。
},
{
"user_agent_type":"desktop_safari"、
"description":"桌面 Safari 最新版本之一的随机用户代理"。
},
{
"user_agent_type":"mobile"、
"description":"随机移动浏览器用户代理"
},
{
"user_agent_type":"mobile_android"、
"description"(描述):"最新版本安卓浏览器的随机用户代理"。
},
{
"user_agent_type":"mobile_ios"、
"描述":"最新版本 iPhone 浏览器的随机用户代理"。
},
{
"user_agent_type":"平板电脑"、
"描述":"随机平板电脑浏览器用户代理"
},
{
"user_agent_type":"tablet_android"、
"描述":"最新版本安卓平板电脑的随机用户代理"。
},
{
"user_agent_type":"tablet_ios"、
"description":"最新版本 iPad 平板电脑的随机用户代理"。
}
]
账户状态
使用统计
您可以通过查询以下端点找到您的使用统计数据:
GET https://data.oxylabs.io/v1/stats
默认情况下,API 将返回所有时间的使用统计数据。添加 group_by=month 将返回月度统计数据,而 group_by=day 将返回每日数字。
此查询将返回所有时间的统计数据。您可以通过添加以下任一选项来查询每日和每月的使用量 group_by=day 或 group_by=month
curl --user user:pass1 'https://data.oxylabs.io/v1/stats'
输出示例
{
"数据":{
"sources":[
{
"realtime_results_count":"90",
"results_count":"10",
"标题":"通用"
}
]
},
"元":{
"group_by": null
}
}
限制
以下端点将提供您的每月承诺信息以及已使用的承诺额度:
GET https://data.oxylabs.io/v1/stats/limits
curl --user user:pass1 'https://data.oxylabs.io/v1/stats/limits'
输出示例
{
"monthly_requests_commitment":4500000,
"used_requests":985000
}
响应代码
| 代码 | 现状 | 说明 |
|---|---|---|
204 |
无内容 | 您正在尝试检索一项尚未完成的任务。 |
400 |
多种错误信息 | 请求结构错误,可能是参数拼写错误或值无效。响应体将显示更具体的错误信息。 |
401 |
未提供授权标头"/"授权标头无效"/"未找到客户端 | 缺少授权标头或登录凭证不正确。 |
403 |
禁止 | 您的帐户无法访问此资源。 |
404 |
未找到 | 您要查找的职位编号已不再可用。 |
429 |
请求太多 | 超出费率限制。请联系您的客户经理以提高限额。 |
500 |
未知错误 | 无法提供服务。 |
524 |
超时 | 无法提供服务。 |
612 |
未定义的内部错误 | 出了点问题,我们未能完成您提交的任务。您可以免费再试一次,因为我们不会向您收取任何费用。 有问题 工作。如果无效,请与我们联系。 |
613 |
重试次数过多后出现故障 | 我们曾尝试清除您提交的作业,但在达到重试限制后放弃了。您可以免费再试一次,因为我们不会向您收取任何费用。 有问题 工作。如果无效,请与我们联系。 |
参考资料
- https://docs.oxylabs.io/rtc/source/html-crawler-api/index.html
- https://docs.oxylabs.io/rtc/index.html
免责声明 这部分内容主要来自商家。如果商家不希望在我的网站上显示,请 联系我们 删除您的内容。
最后更新于 5 月 16, 2022