删除Google App Engine中某种类型的所有数据
我想清除Google App Engine中特定种类的所有数据。是什么
最好的方法吗?
我写了一个删除脚本(hack),但是由于有这么多数据
几百条记录后超时。
解决方案
大概黑客是这样的:
# Deleting all messages older than "earliest_date" q = db.GqlQuery("SELECT * FROM Message WHERE create_date < :1", earliest_date) results = q.fetch(1000) while results: db.delete(results) results = q.fetch(1000, len(results))
就像我们说的那样,如果有足够的数据,我们将在请求遍历所有记录之前达到请求超时。我们必须从外部多次重新调用此请求,以确保删除所有数据。做起来很容易,但并不理想。
管理控制台似乎没有提供任何帮助,因为(根据我的经验),它似乎只允许列出给定类型的实体,然后逐页删除。
测试时,我必须在启动时清除数据库以摆脱现有数据。
由此推断,谷歌的运行原理是磁盘便宜,因此数据通常是孤立的(替换了冗余数据的索引),而不是删除了。鉴于目前每个应用程序都有固定数量的数据(0.5 GB),这对于非Google App Engine用户而言并没有太大帮助。
不幸的是,没有办法轻松地进行批量删除。最好的选择是编写一个脚本,该脚本在每次调用时删除合理数量的条目,然后反复调用它,例如,只要有更多数据要删除,请让删除脚本返回302重定向,然后使用" wget- max-redirect = 10000"(或者其他一些大数字)。
Google的官方回答是,我们必须删除多个请求中的多个块。我们可以使用AJAX,元刷新或者从脚本请求URL,直到没有剩余实体为止。
尝试使用App Engine控制台,那么我们甚至不必部署任何特殊代码
我已经尝试过db.delete(results)和App Engine控制台,但它们似乎都不适合我。由于我已上传了10000多个条目,因此无法从Data Viewer手动删除条目(上限最多增加200个)也不起作用。我结束了写这个剧本
from google.appengine.ext import db from google.appengine.ext import webapp from google.appengine.ext.webapp.util import run_wsgi_app import wsgiref.handlers from mainPage import YourData #replace this with your data class CleanTable(webapp.RequestHandler): def get(self, param): txt = self.request.get('table') q = db.GqlQuery("SELECT * FROM "+txt) results = q.fetch(10) self.response.headers['Content-Type'] = 'text/plain' #replace yourapp and YouData your app info below. self.response.out.write(""" <html> <meta HTTP-EQUIV="REFRESH" content="5; url=http://yourapp.appspot.com/cleanTable?table=YourData"> <body>""") try: for i in range(10): db.delete(results) results = q.fetch(10, len(results)) self.response.out.write("<p>10 removed</p>") self.response.out.write(""" </body> </html>""") except Exception, ints: self.response.out.write(str(inst)) def main(): application = webapp.WSGIApplication([ ('/cleanTable(.*)', CleanTable), ]) wsgiref.handlers.CGIHandler().run(application)
诀窍是在HTML中包含重定向,而不是使用self.redirect。我准备整夜等待摆脱表中的所有数据。希望GAE团队将来能够更轻松地删除表格。
我目前正在按其键删除实体,而且似乎更快。
from google.appengine.ext import db class bulkdelete(webapp.RequestHandler): def get(self): self.response.headers['Content-Type'] = 'text/plain' try: while True: q = db.GqlQuery("SELECT __key__ FROM MyModel") assert q.count() db.delete(q.fetch(200)) time.sleep(0.5) except Exception, e: self.response.out.write(repr(e)+'\n') pass
从终端,我运行curl -N http:// ...
一个提示。我建议我们了解这些类型的用法(批量删除,修改等)的remote_api。但是,即使使用远程api,批量大小也可以一次限制为几百个。
如果我是一个偏执狂的人,我想说Google App Engine(GAE)并不能使我们轻松删除数据。我将跳过有关索引大小以及它们如何将6 GB的数据转换为35 GB的存储(收费)的讨论。那是另一回事了,但是他们确实有一些方法可以解决该限制数量的属性,以在(自动生成的索引)等等上创建索引。
我决定写这篇文章的原因是,我需要在一个沙箱中"核对"所有种类。我读了一下,最后想出了这段代码:
package com.intillium.formshnuker; import java.io.IOException; import java.util.ArrayList; import javax.servlet.http.HttpServlet; import javax.servlet.http.HttpServletRequest; import javax.servlet.http.HttpServletResponse; import com.google.appengine.api.datastore.Key; import com.google.appengine.api.datastore.Query; import com.google.appengine.api.datastore.Entity; import com.google.appengine.api.datastore.FetchOptions; import com.google.appengine.api.datastore.DatastoreService; import com.google.appengine.api.datastore.DatastoreServiceFactory; import com.google.appengine.api.labs.taskqueue.QueueFactory; import com.google.appengine.api.labs.taskqueue.TaskOptions.Method; import static com.google.appengine.api.labs.taskqueue.TaskOptions.Builder.url; @SuppressWarnings("serial") public class FormsnukerServlet extends HttpServlet { public void doGet(final HttpServletRequest request, final HttpServletResponse response) throws IOException { response.setContentType("text/plain"); final String kind = request.getParameter("kind"); final String passcode = request.getParameter("passcode"); if (kind == null) { throw new NullPointerException(); } if (passcode == null) { throw new NullPointerException(); } if (!passcode.equals("LONGSECRETCODE")) { response.getWriter().println("BAD PASSCODE!"); return; } System.err.println("*** deleting entities form " + kind); final long start = System.currentTimeMillis(); int deleted_count = 0; boolean is_finished = false; final DatastoreService dss = DatastoreServiceFactory.getDatastoreService(); while (System.currentTimeMillis() - start < 16384) { final Query query = new Query(kind); query.setKeysOnly(); final ArrayList<Key> keys = new ArrayList<Key>(); for (final Entity entity: dss.prepare(query).asIterable(FetchOptions.Builder.withLimit(128))) { keys.add(entity.getKey()); } keys.trimToSize(); if (keys.size() == 0) { is_finished = true; break; } while (System.currentTimeMillis() - start < 16384) { try { dss.delete(keys); deleted_count += keys.size(); break; } catch (Throwable ignore) { continue; } } } System.err.println("*** deleted " + deleted_count + " entities form " + kind); if (is_finished) { System.err.println("*** deletion job for " + kind + " is completed."); } else { final int taskcount; final String tcs = request.getParameter("taskcount"); if (tcs == null) { taskcount = 0; } else { taskcount = Integer.parseInt(tcs) + 1; } QueueFactory.getDefaultQueue().add( url("/formsnuker?kind=" + kind + "&passcode=LONGSECRETCODE&taskcount=" + taskcount).method(Method.GET)); System.err.println("*** deletion task # " + taskcount + " for " + kind + " is queued."); } response.getWriter().println("OK"); } }
我有超过600万条记录。好多啊。我不知道删除记录将花费多少(不删除它们可能更经济)。另一种选择是请求删除整个应用程序(沙盒)。但这在大多数情况下是不现实的。
我决定使用较小的记录组(易于查询)。我知道我可以使用500个实体,但是后来我开始收到很高的失败率(重新删除功能)。
我从GAE小组提出的要求:请添加一项功能,以在一次交易中删除同类的所有实体。
我们可以使用任务队列删除例如100个对象的块。
在GAE中删除对象显示了GAE中管理功能的有限程度。我们必须在1000个或者更少的实体上使用批处理。我们可以使用与csv一起使用的bulkloader工具,但文档不涵盖Java。
我正在使用GAE Java,删除策略涉及2个servlet,一个用于实际删除,另一个用于加载任务队列。当我想删除时,我运行队列加载servlet,它加载队列,然后GAE开始执行队列中的所有任务。
怎么做:
创建一个删除少量对象的servlet。
将servlet添加到任务队列中。
回家或者做其他事情;)
经常检查数据存储区...
我有一个每周大约要清除5000个对象的数据存储,清理大约需要6个小时,所以我在星期五晚上运行任务。
我使用相同的技术来批量加载我的数据,恰巧是大约5000个对象,具有大约十二个属性。
使用django,设置网址:
url(r'^Model/bdelete/$', v.bulk_delete_models, {'model':'ModelKind'}),
设置视图
def bulk_delete_models(request, model): import time limit = request.GET['limit'] or 200 start = time.clock() set = db.GqlQuery("SELECT __key__ FROM %s" % model).fetch(int(limit)) count = len(set) db.delete(set) return HttpResponse("Deleted %s %s in %s" % (count,model,(time.clock() - start)))
然后在powershell中运行:
$client = new-object System.Net.WebClient $client.DownloadString("http://your-app.com/Model/bdelete/?limit=400")
这为我工作:
class ClearHandler(webapp.RequestHandler): def get(self): self.response.headers['Content-Type'] = 'text/plain' q = db.GqlQuery("SELECT * FROM SomeModel") self.response.out.write("deleting...") db.delete(q)
处理数据存储区上批量删除的最快,最有效的方法是使用最新的Google I / O上宣布的新的mapper API。
如果我们选择的语言是Python,则只需在mapreduce.yaml文件中注册映射器,然后定义如下函数:
from mapreduce import operation as op def process(entity): yield op.db.Delete(entity)
在Java上,我们应该看一下这篇文章,该文章建议这样的功能:
@Override public void map(Key key, Entity value, Context context) { log.info("Adding key to deletion pool: " + key); DatastoreMutationPool mutationPool = this.getAppEngineContext(context) .getMutationPool(); mutationPool.delete(value.getKey()); }