在Amazon DynamoDB Tables页面, 点击Export/Import。在 Export/Import 页面, 选择你想导出的表,然后点击 Export from DynamoDB。在Create Export Table Data Pipeline(s)页面。
按以下流程操作:在S3 Output Folder文本框中填写 Amazon S3 URI,导出文件将存放在S3中对应的目录下。比如:s3://mybucket/exports
这个URI的规则应该是这样s3://bucketname/folder :bucketname是S3中bucket的名称folder表示此bucket下目录的名称。
假设这个目录不存在,它将被自己主动创建。假设你不指定这个名称,它将被自己主动授予一个名字,名字的规则是:s3://bucketname/region/tablename。在 S3 Log Folder文本框中输入一个S3 URI。导出过程的日志将被存储在对应的folder中。
比如:s3://mybucket/logs/
S3 Log FolderURI的格式和 S3 Output Folder的格式同样。在Throughput Rate文本框中可选择一个百分比。这个比率表示在导出过程中会消耗读吞吐量的上限。
比如,如果你要导出的表的读吞吐量是20,同一时候你设置的百分比是40%。那么导出时所消耗的吞吐量将不会超过8。
假设你在导出多个表,这个 Throughput Rate将会被应用到每一个表中。Execution Timeout文本框。
输入导出任务的超时时长。假设导出任务在这个时长内还没运行完毕,此任务会失败。Send notifications to文本框,输入一个email地址。在 pipeline被创建后。你将会收到一封email邀请订阅Amazon SNS。假设你接受了此邀请。
在每次运行导出操作时你都将会收到email通知。Schedule选项,选择以下当中一项:One-time Export—导出任务将在pipeline被创建后马上运行。Daily Export— 导出任务将会在你所指定的时刻运行。同一时候会在每天的那个时刻反复。
Data Pipeline Role, 选择DataPipelineDefaultRole。Resource Role, 选择DataPipelineDefaultResourceRole确认好以上设置然后点击Create Export Pipeline。
你的 pipeline 如今将被创建。这个过程可能会花费几分钟完毕。要查看当前状态。移步Managing Export and Import Pipelines。假设你选择的Schedule是 one-time export,导出任务将在pipeline 创建成功后马上运行。
假设你选择的是daily export,导出任务将会在指定时刻运行,同一时候会在每天的那个时刻运行导出任务。当导出任务结束,你能够到 Amazon S3 console来查看导出文件。这个文件将会在以你的表名命名的目录中。而文件名称将会是这样的格式:YYYY-MM-DD_HH。
MM。文件内部结构会在Verify Data Export File中描写叙述。Aws Dynamodb数据导出到S3。
1.文章《Aws Dynamodb数据导出到S3》援引自互联网,为网友投稿收集整理,仅供学习和研究使用,内容仅代表作者本人观点,与本网站无关,侵删请点击页脚联系方式。
2.文章《Aws Dynamodb数据导出到S3》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
相关推荐
- . 现代买票为什么带上携程保险
- . 潮阳怎么去广州南站
- . 湖南马拉河怎么样
- . 烧纸为什么到三岔路口
- . 百色为什么这么热
- . 神州租车怎么样
- . 芜湖方特哪个适合儿童
- . 护肤品保养液是什么类目
- . 早晚的护肤保养有哪些项目
- . 女孩护肤品怎么保养的最好