Tornado Unit Testing - Tornado应用的单元测试

简介:

之前在测试Django应用时,使用了非常方便的django.test.TestCase。在测试Tornado时,我也包装了一个TestCase类,提供和Django一样便捷的测试方法。最终,测试案例的代码将会是这样:

复制代码
from  testclient  import  TestCase

class  QueryTest(TestCase):
    
def  setUp(self):
        
pass
    
def  test_query(self):
        file 
=  open( ' uploadfile.dat ' ' rb ' )
        response 
=  self.client.post( ' /query ' , {  ' a ' ' 1 ' 'b''2', 'upload ' : file })

        self.failUnlessEqual(response.status_code, 
200 )
        self.failUnlessEqual(response.content, 
' ok ' )
复制代码


testclient.py的代码如下: 

复制代码
ExpandedBlockStart.gif 代码
# !/usr/bin/env python
#
coding:utf-8
#
#
 Copyright 2009 CoderZh.com.
#
 Licensed under the Apache License, Version 2.0 (the "License");
#
 you may not use this file except in compliance with the License.
#
 You may obtain a copy of the License at
#
#
     http://www.apache.org/licenses/LICENSE-2.0
#
#
 Unless required by applicable law or agreed to in writing, software
#
 distributed under the License is distributed on an "AS IS" BASIS,
#
 WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
#
 See the License for the specific language governing permissions and
#
 limitations under the License.

__author__   =   ' CoderZh '


import  tornado.ioloop
import  unittest
import  mimetypes

import  tornado.httpclient
import  tornado.ioloop

TEST_PORT 
=   8989

def  encode_multipart_formdata(fields, files):
    
"""
    fields is a sequence of (name, value) elements for regular form fields.
    files is a sequence of (name, filename, value) elements for data to be uploaded as files
    Return (content_type, body) ready for httplib.HTTP instance
    
"""
    BOUNDARY 
=   ' ----------ThIs_Is_tHe_bouNdaRY_$ '
    CRLF 
=   ' \r\n '
    L 
=  []
    
for  (key, value)  in  fields:
        L.append(
' -- '   +  BOUNDARY)
        L.append(
' Content-Disposition: form-data; name="%s" '   %  key)
        L.append(
'' )
        L.append(value)
    
for  (key, filename, value)  in  files:
        L.append(
' -- '   +  BOUNDARY)
        L.append(
' Content-Disposition: form-data; name="%s"; filename="%s" '   %  (key, filename))
        L.append(
' Content-Type: %s '   %  get_content_type(filename))
        L.append(
'' )
        L.append(value)
    L.append(
' -- '   +  BOUNDARY  +   ' -- ' )
    L.append(
'' )
    body 
=  CRLF.join(L)
    content_type 
=   ' multipart/form-data; boundary=%s '   %  BOUNDARY
    
return  content_type, body

def  get_content_type(filename):
    
return  mimetypes.guess_type(filename)[0]  or   ' application/octet-stream '


class  Response:
    
def   __init__ (self, status_code, content):
        self.status_code 
=  status_code
        self.content 
=  content

class  Client:
    
    
def  handle_request(self, response):
        self.response 
=  response
        tornado.ioloop.IOLoop.instance().stop()
    
    
def  post(self, url, data = {}):
    url 
=   ' http://127.0.0.1:%s%s '   %  (TEST_PORT, url)
        fields 
=  []
        files 
=  []
        
for  key, value  in  data.items():
            
if  isinstance(value, file):
                files.append([key, value.name, value.read()])
            
else :
                fields.append([key, value])
                
        content_type, body 
=  encode_multipart_formdata(fields, files)
        headers 
=  { ' Content-Type '  : content_type}
        
        request 
=  tornado.httpclient.HTTPRequest(url = url,
                         method
= ' POST ' ,
                         headers
= headers,
                         body
= body)

        client 
=  tornado.httpclient.AsyncHTTPClient()
        client.fetch(request , self.handle_request)    
        tornado.ioloop.IOLoop.instance().start()
        
        
return  Response(self.response.code, self.response.body)
    
class  TestCase(unittest.TestCase):
    
def  _pre_setup(self):
       
pass
    
    
def  _post_teardown(self):
       
pass
    
    
def   __call__ (self, result = None):
        
"""
        Wrapper around default __call__ method to perform My test
        set up. This means that user-defined Test Cases aren't required to
        include a call to super().setUp().
        
"""
        self.client 
=  Client()
        
try :
            self._pre_setup()
        
except  (KeyboardInterrupt, SystemExit):
            
raise
        
except  Exception:
            
import  sys
            result.addError(self, sys.exc_info())
            
return
        super(TestCase, self).
__call__ (result)
        
try :
            self._post_teardown()
        
except  (KeyboardInterrupt, SystemExit):
            
raise
        
except  Exception:
            
import  sys
            result.addError(self, sys.exc_info())
            
return
复制代码
 
本文转自CoderZh博客园博客,原文链接:http://www.cnblogs.com/coderzh/archive/2010/01/01/Tornado-Unit-Testing.html,如需转载请自行联系原作者
 
相关文章
|
22天前
|
SQL 安全 测试技术
【软件设计师备考 专题 】测试要求说明书的编写和应用
【软件设计师备考 专题 】测试要求说明书的编写和应用
53 0
|
1月前
|
Web App开发 前端开发 测试技术
探索自动化测试工具:Selenium的威力与应用
探索自动化测试工具:Selenium的威力与应用
探索自动化测试工具:Selenium的威力与应用
|
26天前
|
安全 测试技术
现代软件测试中的自动化技术应用及挑战
在当今数字化时代,软件测试的重要性日益凸显。本文探讨了现代软件测试中自动化技术的应用现状和挑战,分析了自动化测试在提高效率、降低成本、增强可靠性等方面的优势,同时也提出了自动化测试所面临的挑战和解决方案。
|
1月前
|
机器学习/深度学习 数据采集 人工智能
探索AI在软件测试中的应用与挑战
【2月更文挑战第25天】 随着人工智能(AI)技术的迅猛发展,其在软件测试领域的应用逐渐深入。AI不仅改变了传统测试流程,提高了测试效率和质量,也引入了新的挑战。本文将详细探讨AI在软件测试中的具体应用,包括智能化测试用例生成、缺陷预测、自动化测试执行等,并分析当前面临的主要挑战,如数据质量、模型泛化能力和工具集成等问题。通过实例分析和研究展望,本文旨在为软件测试专业人士提供一个关于AI技术融合的全面视角。
|
1月前
|
机器学习/深度学习 数据采集 人工智能
探索AI在软件测试中的应用和优势
【2月更文挑战第22天】 随着科技的不断发展,人工智能(AI)在各个领域的应用越来越广泛。本文主要探讨了AI在软件测试领域的应用及其带来的优势。文章首先介绍了AI技术的基本概念,然后详细分析了AI在软件测试中的具体应用,包括自动化测试、智能缺陷检测和预测等方面。最后,文章总结了AI在软件测试领域的优势,如提高测试效率、降低人力成本、提高测试质量等,并展望了AI在软件测试领域的未来发展趋势。
|
1月前
|
机器学习/深度学习 人工智能 算法
探索AI在软件测试中的应用与挑战
【2月更文挑战第15天】 随着人工智能技术的飞速发展,其在软件测试领域的应用日益广泛。本文将深入探讨AI技术如何革新传统软件测试流程,以及在实施过程中可能遇到的挑战。我们将从自动化测试用例生成、智能化缺陷识别、测试数据优化等方面入手,分析AI如何提升测试效率和质量。同时,也将讨论集成AI所面临的问题,如数据隐私保护、算法透明度、以及对测试人员技能的新要求。
|
17天前
|
Web App开发 Java 测试技术
深入理解与应用软件自动化测试工具Selenium
随着软件开发的快速发展,软件测试在保证产品质量方面发挥着越来越重要的作用。其中,自动化测试以其效率高、成本低的特点受到了广大开发者的欢迎。本文主要介绍了自动化测试工具Selenium的基本概念、原理以及在实际开发中的应用,旨在帮助读者更好地理解和使用Selenium进行高效的自动化测试。
22 4
|
23天前
|
设计模式 敏捷开发 监控
深入理解与应用软件自动化测试框架
在快速迭代的软件开发过程中,自动化测试已成为确保产品质量和加快交付速度的关键因素。本文将详细探讨自动化测试框架的核心原理、设计模式及其在实际项目中的应用。我们将分析几种流行的自动化测试工具,如Selenium、Appium和JUnit,并讨论它们如何集成以形成强大的测试解决方案。文章还将展示通过自定义框架来满足特定测试需求的实例,以及如何通过持续集成和持续部署(CI/CD)流程优化测试实践。
|
26天前
|
缓存 运维 Serverless
应用研发平台EMAS产品常见问题之测试检查更新没有反应如何解决
应用研发平台EMAS(Enterprise Mobile Application Service)是阿里云提供的一个全栈移动应用开发平台,集成了应用开发、测试、部署、监控和运营服务;本合集旨在总结EMAS产品在应用开发和运维过程中的常见问题及解决方案,助力开发者和企业高效解决技术难题,加速移动应用的上线和稳定运行。
|
26天前
|
敏捷开发 供应链 测试技术
深入理解与应用软件测试中的Mock技术
【2月更文挑战第30天】 在现代软件开发过程中,单元测试是保证代码质量的重要手段。然而,对于高度依赖外部系统或服务的应用来说,传统的单元测试方法往往难以实施。Mock技术应运而生,它通过模拟外部依赖的响应,使开发者可以在隔离的环境中测试目标代码。本文将探讨Mock技术的概念、应用场景以及如何在软件测试中有效地使用Mock对象,以增强测试的灵活性和可靠性。