我正在使用aiohttp在python 3.4中创建一个简单的HTTP请求,如下所示:
response = yield from aiohttp.get(url)
应用程序一遍又一遍地请求相同的URL,所以我自然想要缓存它.我的第一次尝试是这样的:
@functools.lru_cache(maxsize=128) def cached_request(url): return aiohttp.get(url)
第一次调用cached_request
工作正常,但在以后的调用中我最终得到None
而不是响应对象.
我对asyncio比较新,所以我尝试了很多asyncio.coroutine
装饰器的组合,yield from
以及其他一些东西,但似乎都没有.
那么缓存协同程序如何工作?
也许有些晚,但是我已经启动了一个可能会有所帮助的新软件包:https : //github.com/argaen/aiocache。始终欢迎您提供贡献/意见。
一个例子:
import asyncio from collections import namedtuple from aiocache import cached from aiocache.serializers import PickleSerializer Result = namedtuple('Result', "content, status") @cached(ttl=10, serializer=PickleSerializer()) async def async_main(): print("First ASYNC non cached call...") await asyncio.sleep(1) return Result("content", 200) if __name__ == "__main__": loop = asyncio.get_event_loop() print(loop.run_until_complete(async_main())) print(loop.run_until_complete(async_main())) print(loop.run_until_complete(async_main())) print(loop.run_until_complete(async_main()))
请注意,它还可以使用Pickle序列化将任何python对象缓存到redis中。如果您只想使用内存,可以使用SimpleMemoryCache
后端:)。