博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
werkzeug源码分析——从官网的示例代码开始
阅读量:5960 次
发布时间:2019-06-19

本文共 21686 字,大约阅读时间需要 72 分钟。

全文基于Python 2.7 macOS 10.12.2

werkzeug是Python实现的WSGI规范的使用函数库。什么是WSGI? 网上的说明很多,在文章的开始,我想要强调两点

  • WSGI是一种服务器和客户端交互的接口规范
  • 理解web组件:client, server, and middleware.

正如werkzeug官网上所说,werkzeug使用起来非常简单,但是却非常强大。关于使用简单的这个特性,官网给了一段示例代码。

from werkzeug.wrappers import Request, Response@Request.applicationdef application(request):    return Response('Hello World!')if __name__ == '__main__':    from werkzeug.serving import run_simple    run_simple('localhost', 4000, application)复制代码

运行起来以后,打开我们的浏览器输入127.0.0.1:4000就可以看到

这篇文章我们就将从这段示例代码入手,从源码的角度分析一下背后究竟是如何实现的。


一个web应用的本质,实际就是: 浏览器(client)发送一个请求(request) ——> 服务器(server)接收到请求 ——> 服务器处理请求 ——> 返回处理的结果(response) ——> 浏览器处理返回的结果,显示出来。

再看这段代码,开始的func application(),非常的容易理解。函数在server端,接收了来自client的一个request,经过内部的处理以后返回了一个response。但是如果看过其他WSGI教程(比如)的朋友应该会感觉到奇怪,这个函数和别的地方举例的不太一样,因为WSGI要求web开发者必须实现的函数是这个样子的

defapplication(environ, start_response):     start_response('200 OK', [('Content-Type','text/html')])     return 'Hello, web!'

我们的函数必须接受两个参数environ,start_response。environ是一个保存了请求的各项信息的字典,而start_response是一个func,我们可以用它来给client端返回状态码和response headers。最后return我们真正想要返回的数据。但是werkzeug的这段示例代码却简化了很多,原因就在这个函数的装饰器上 **@Request.application **

**@classmethod** def application(cls, f):     def application(*args):         request = cls(args[-2])         with request:             return f(*args[:-2] + (request,))(*args[-2:])     return update_wrapper(application, f)

源码可以看出,**@Request.application **拦截了func的倒数第二个参数(也就是environ),构建了request对象;然后把原参数移除了倒数两个参数(environ和start_response)以后和request对象一起传入了我们自己实现的func application();调用func application()返回的对象,传入原参数的倒数两个。把最后的执行结果返回。 为了便于理解,我写了一个装饰器,打印每个函数的参数。对比一下就很明了了。

如果你还是有一点疑惑,觉得话说的有点绕口。我们先保持疑问,在后面作者再给大家细细解释。

看到这里,这个func先放一边。我们来看看func run_simple()。这是这个简单web应用的入口函数。在~/werkzeug/serving.py文件的开始,有这样一段注释

... There are many ways to serve a WSGI application.  While you're developing it you usually don't want a full blown webserver like Apache but a simple standalone one. ... For bigger applications you should consider using werkzeug.script instead of a simple start file.

大多数情况下,我们并不需要一个大而全的webserver。比如,Apache。一个简单而独立的webserver就够了。很显然,我们今天所讨论的run_simple()就是为此场景而服务的.

def run_simple(hostname, port, application, use_reloader=False,               use_debugger=False, use_evalex=True,               extra_files=None, reloader_interval=1,               reloader_type='auto', threaded=False,               processes=1, request_handler=None, static_files=None,               passthrough_errors=False, ssl_context=None):    if use_debugger:        from werkzeug.debug import DebuggedApplication        application = DebuggedApplication(application, use_evalex)    if static_files:        from werkzeug.wsgi import SharedDataMiddleware        application = SharedDataMiddleware(application, static_files)    def log_startup(sock):        display_hostname = hostname not in ('', '*') and hostname or 'localhost'        if ':' in display_hostname:            display_hostname = '[%s]' % display_hostname        quit_msg = '(Press CTRL+C to quit)'        port = sock.getsockname()[1]        _log('info', ' * Running on %s://%s:%d/ %s',             ssl_context is None and 'http' or 'https',             display_hostname, port, quit_msg)    def inner():        try:            fd = int(os.environ['WERKZEUG_SERVER_FD'])        except (LookupError, ValueError):            fd = None        srv = make_server(hostname, port, application, threaded,                          processes, request_handler,                          passthrough_errors, ssl_context,                          fd=fd)        if fd is None:            log_startup(srv.socket)        srv.serve_forever()    if use_reloader:        # If we're not running already in the subprocess that is the        # reloader we want to open up a socket early to make sure the        # port is actually available.        if os.environ.get('WERKZEUG_RUN_MAIN') != 'true':            if port == 0 and not can_open_by_fd:                raise ValueError('Cannot bind to a random port with enabled '                                 'reloader if the Python interpreter does '                                 'not support socket opening by fd.')            # Create and destroy a socket so that any exceptions are            # raised before we spawn a separate Python interpreter and            # lose this ability.            address_family = select_ip_version(hostname, port)            s = socket.socket(address_family, socket.SOCK_STREAM)            s.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1)            s.bind((hostname, port))            if hasattr(s, 'set_inheritable'):                s.set_inheritable(True)            # If we can open the socket by file descriptor, then we can just            # reuse this one and our socket will survive the restarts.            if can_open_by_fd:                os.environ['WERKZEUG_SERVER_FD'] = str(s.fileno())                s.listen(LISTEN_QUEUE)                log_startup(s)            else:                s.close()        # Do not use relative imports, otherwise "python -m werkzeug.serving"        # breaks.        from werkzeug._reloader import run_with_reloader        run_with_reloader(inner, extra_files, reloader_interval,                          reloader_type)    else:        inner()复制代码

开始研究源码,我们应该学会做减法,去掉一些分支看主干,避免对整体理解的干扰。在示例代码中,我们用到的参数是hostname(本地运行默认127.0.0.1),port(默认是4000),application(就是我们传入的func application())。其余的参数全部按照默认设置来执行。源码中有很多的判断,我们根据示例代码的参数,对源码进行处理,去掉不执行的部分。如下:

def run_simple(hostname, port, application, use_reloader=False,               use_debugger=False, use_evalex=True,               extra_files=None, reloader_interval=1,               reloader_type='auto', threaded=False,               processes=1, request_handler=None, static_files=None,               passthrough_errors=False, ssl_context=None):    def log_startup(sock):        display_hostname = hostname not in ('', '*') and hostname or 'localhost'        if ':' in display_hostname:            display_hostname = '[%s]' % display_hostname        quit_msg = '(Press CTRL+C to quit)'        port = sock.getsockname()[1]        _log('info', ' * Running on %s://%s:%d/ %s',             ssl_context is None and 'http' or 'https',             display_hostname, port, quit_msg)    def inner():        try:            fd = int(os.environ['WERKZEUG_SERVER_FD'])        except (LookupError, ValueError):            fd = None        srv = make_server(hostname, port, application, threaded,                          processes, request_handler,                          passthrough_errors, ssl_context,                          fd=fd)        if fd is None:            log_startup(srv.socket)        srv.serve_forever()    inner()复制代码

现在看来就简单很多了。执行了一个inner()函数:首先从环境变量中获取'WERKZEUG_SERVER_FD'的值,如果为空就执行log_startup()函数。执行make_server()函数并让返回的对象执行server_forever()函数。

那我们再去make_server()里看看到底做了什么。

def make_server(host=None, port=None, app=None, threaded=False, processes=1,                request_handler=None, passthrough_errors=False,                ssl_context=None, fd=None):    """Create a new server instance that is either threaded, or forks    or just processes one request after another.    """    if threaded and processes > 1:        raise ValueError("cannot have a multithreaded and "                         "multi process server.")    elif threaded:        return ThreadedWSGIServer(host, port, app, request_handler,                                  passthrough_errors, ssl_context, fd=fd)    elif processes > 1:        return ForkingWSGIServer(host, port, app, processes, request_handler,                                 passthrough_errors, ssl_context, fd=fd)    else:        return BaseWSGIServer(host, port, app, request_handler,                              passthrough_errors, ssl_context, fd=fd)复制代码

make_server()函数创建了一个新的server对象。参看一下源码,** ThreadedWSGIServer** 和 ** ForkingWSGIServer 都是 ** BaseWSGIServer的子类。这篇文章我们就不仔细分析区别,就以BaseWSGIServer入手。

BaseWSGIServer继承自HTTPServer。在~/werkzeug/serving.py的开始

try:    import SocketServer as socketserver    from BaseHTTPServer import HTTPServer, BaseHTTPRequestHandlerexcept ImportError:    import socketserver    from http.server import HTTPServer, BaseHTTPRequestHandler复制代码

werkzeug的HTTP服务是基于Pyhton的BaseHTTPServer来实现的。关于BaseHTTPServer的文档在这里。一般我们使用class HTTPServer来建立Server端,监听指定端口,然后创建一个class BaseHTTPRequestHandler来处理我们捕获到的request。在werkzeug中** WSGIRequestHandler** 继承自** BaseHTTPRequestHandler**。

关于BaseHTTPServer并没有什么太多值得讨论的东西,基本暴露出的接口都是调用父类的同名方法。我们要做的也就是传入hostname,port等参数,然后执行serve_forever()来建立服务。(serve_forever()看着眼熟吗?就是run_simple()中make_server()返回的srv对象执行的方法) 但是** WSGIRequestHandler **,作者还是想和各位唠叨几句。

根据Pyhton 2.7的官方文档所说,** BaseHTTPRequestHandler**这个类在Server端接收到请求以后会根据请求的方法来执行do_xx()函数。比如说我们发起的是一个GET请求,那么就会执行do_GET()这个函数。但对应各种请求方法的do_xx()函数父类并没有实现,需要使用者自行去定义。

文档中有一段示例代码,我们复制下来(如下)

import BaseHTTPServerdef run(server_class=BaseHTTPServer.HTTPServer,        handler_class=BaseHTTPServer.BaseHTTPRequestHandler):    server_address = ('', 5000)    httpd = server_class(server_address, handler_class)    httpd.serve_forever()if __name__ == '__main__':		run()复制代码

执行会在本地的5000端口建立一个服务。但是当你使用浏览器前往127.0.0.1:5000时会收到一个501的错误。

原因就在于我们并没有实现do_GET()方法。现在我们稍稍修改代码,继承BaseHTTPRequestHandler实现一个do_GET()方法,调用父类中send_response()返回client端一个200的状态码和一个'success message!'。

import BaseHTTPServerclass HTTPServerHandler(BaseHTTPServer.BaseHTTPRequestHandler):	def do_GET(self):		self.send_response(200,'success message!')		def run(server_class=BaseHTTPServer.HTTPServer,        handler_class=HTTPServerHandler):    server_address = ('', 5000)    httpd = server_class(server_address, handler_class)    httpd.serve_forever()if __name__ == '__main__':		run()复制代码

再次请求。打开浏览器的开发者工具,在network中可以看到返回的结果。

这样。一个最简单的Server端就实现了。当然,这个返回非常的简陋,并没有什么实际的信息返回。我们从这样一个简单的例子,应该要发现一点问题。

  • 每一种HTTP请求的方法都需要对应去实现一个do_xx()方法,非常的麻烦。
  • 所有的请求信息都暴露给开发者,很多时候开发者作为上层的调用者,并不想关心很多底层的操作。
  • 当我们的application复杂起来,需要返回更多的内容。每次都要去操作这些基础的HTTP请求相关的东西。非常的不友好。

接下来,我们看看werkzeug中是如何处理的。在官方文档中

handle() Calls handle_one_request() once (or, if persistent connections are enabled, multiple times) to handle incoming HTTP requests. You should never need to override it; instead, implement appropriate do_*()  methods.

handle_one_request() This method will parse and dispatch the request to the appropriate do_*()  method. You should never need to override it.

提到了,当我们捕获到request的时候调用的是这两个func()。并且,它给我们的提示是**You should never need to override it. **(滑稽)。但实际在werkzeug中这两个方法是被override了的。要想不顾官方的阻拦一意孤行,首先我们还是应该了解这两个方法究竟是怎么实现的。

def handle_one_request(self):        """Handle a single HTTP request.        You normally don't need to override this method; see the class        __doc__ string for information on how to handle specific HTTP        commands such as GET and POST.        """        try:            self.raw_requestline = self.rfile.readline(65537)            if len(self.raw_requestline) > 65536:                self.requestline = ''                self.request_version = ''                self.command = ''                self.send_error(414)                return            if not self.raw_requestline:                self.close_connection = 1                return            if not self.parse_request():                # An error code has been sent, just exit                return            mname = 'do_' + self.command            if not hasattr(self, mname):                self.send_error(501, "Unsupported method (%r)" % self.command)                return            method = getattr(self, mname)            method()            self.wfile.flush() #actually send the response if not already done.        except socket.timeout, e:            #a read or a write timed out.  Discard this connection            self.log_error("Request timed out: %r", e)            self.close_connection = 1            return    def handle(self):        """Handle multiple requests if necessary."""        self.close_connection = 1        self.handle_one_request()        while not self.close_connection:            self.handle_one_request()复制代码

捕获了request之后执行的是func handle()。其中self.close_connection 是一个关闭连接的标志位。只有在request header中包含keep-alive且协议版本号大于HTTP/1.1的时候设0,其余情况下置1。捕获request的具体实现还是在handle_one_request()中。

1.首先判断接收的字节数。是否大于65536。大于返回414错误。(IP首部中标识长度的有16bit,所以长度限制不可以大于2^16) 2.判断读取的字节。为空关闭连接 3.调用parse_request()解析request。解析错误返回状态吗,成功继续。 4.根据请求的方法寻找对应的函数。如果子类没有实现对应方法,返回501错误。找到对应方法,执行并将返回内容写入数据。 5.如果timeout,打个log记录一下。

这就是BaseHTTPServer中的处理。在了解了它的原理之后,让我们回到werkzeug,看看它是如何处理的。

def handle(self):        """Handles a request ignoring dropped connections."""        rv = None        try:            rv = BaseHTTPRequestHandler.handle(self)        except (socket.error, socket.timeout) as e:            self.connection_dropped(e)        except Exception:            if self.server.ssl_context is None or not is_ssl_error():                raise        if self.server.shutdown_signal:            self.initiate_shutdown()        return rvdef handle_one_request(self):        """Handle a single HTTP request."""        self.raw_requestline = self.rfile.readline()        if not self.raw_requestline:            self.close_connection = 1        elif self.parse_request():            return self.run_wsgi()复制代码

BaseHTTPServer并不支持SSL。在werkzeug中添加了对SSL的支持。所以在werkzeug的handle()中,它在执行了父类的func handle()后,除了对socket.timeout的处理,还考虑了SSL的可能。在func handle_one_request()中,减少了对字节流长度的判断。和BaseHTTPServer不同的是,werkzeug中把所有请求方法的处理,都放到了func run_wsgi()中,而不是根据请求方法区分成不同的方法并且要求子类来实现。

def run_wsgi(self):        if self.headers.get('Expect', '').lower().strip() == '100-continue':            self.wfile.write(b'HTTP/1.1 100 Continue\r\n\r\n')        self.environ = environ = self.make_environ()        headers_set = []        headers_sent = []        def write(data):            assert headers_set, 'write() before start_response'            if not headers_sent:                status, response_headers = headers_sent[:] = headers_set                try:                    code, msg = status.split(None, 1)                except ValueError:                    code, msg = status, ""                self.send_response(int(code), msg)                header_keys = set()                for key, value in response_headers:                    self.send_header(key, value)                    key = key.lower()                    header_keys.add(key)                if 'content-length' not in header_keys:                    self.close_connection = True                    self.send_header('Connection', 'close')                if 'server' not in header_keys:                    self.send_header('Server', self.version_string())                if 'date' not in header_keys:                    self.send_header('Date', self.date_time_string())                self.end_headers()            assert isinstance(data, bytes), 'applications must write bytes'            self.wfile.write(data)            self.wfile.flush()        def start_response(status, response_headers, exc_info=None):            if exc_info:                try:                    if headers_sent:                        reraise(*exc_info)                finally:                    exc_info = None            elif headers_set:                raise AssertionError('Headers already set')            headers_set[:] = [status, response_headers]            return write        def execute(app):            application_iter = app(environ, start_response)            try:                for data in application_iter:                    write(data)                if not headers_sent:                    write(b'')            finally:                if hasattr(application_iter, 'close'):                    application_iter.close()                application_iter = None        try:            execute(self.server.app)        except (socket.error, socket.timeout) as e:            self.connection_dropped(e, environ)        except Exception:            if self.server.passthrough_errors:                raise            from werkzeug.debug.tbtools import get_current_traceback            traceback = get_current_traceback(ignore_system_exceptions=True)            try:                # if we haven't yet sent the headers but they are set                # we roll back to be able to set them again.                if not headers_sent:                    del headers_set[:]                execute(InternalServerError())            except Exception:                pass            self.server.log('error', 'Error on request:\n%s',                            traceback.plaintext)复制代码

func run_wsgi()首先对request的headers进行了一个判断。有关HTTP协议的东西不在我们这篇文章的讨论范围内,RFC的文档在这里。有兴趣的朋友参考文档一下,这里我们可以先忽略了这个判断。

之后是获取环境变量environ。func make_environ()实质作用就是打包各类信息成一个字典。当你去查看这个函数源码时,你会发现这个字典的很多key值你非常的眼熟。没错,就是文章开始在解释func application()时,打印传入参数时打印的那个environ参数。func make_environ()获取了各项信息以后会在之后传给我们自己实现的application。这里我们先简单略过,后面遇到再讨论。

之后声明了两个数组和三个func,我们直接略过一路看到底。看到结尾处的try-catch,这才是run_wsgi()的入口位置。首先函数调用了func execute(),传入绑定在HTTPServer上的application。这个application就是func run_simple()我们传入的自定义的那个func application(),make_server()创建HTTPServer时将application绑定在上面。

application_iter = app(environ, start_response)

这样简单的一句乍看会让人比较的懵。因为我们知道,func application()返回的是一个Response对象,而这里application_iter很明显是一个可以迭代的对象。其中的秘密就在文章开始我们所说的那个deractor**@Request.application**。

我们已经解释过了,这个deractor拦截倒数第二个参数,对比这里就是environ,创建一个request对象,然后和倒数第二之前的参数(也就是只传入了request对象)一起传入我们的func application(),return了一个Response对象。return f(*args[:-2] + (request,))(*args[-2:]),这个deractor在return的时候又把这个response当做函数来处理了一把。在这个例子中最后的结果类似这样response(environ,start_response)。这样列出来就很明确了,我们去~/werkzeug/wrapper.py中看看class BaseResponse的__call__方法。

def __call__(self, environ, start_response):        """Process this response as WSGI application.        :param environ: the WSGI environment.        :param start_response: the response callable provided by the WSGI                               server.        :return: an application iterator        """        app_iter, status, headers = self.get_wsgi_response(environ)        start_response(status, headers)        return app_iter复制代码

关于class Requestclass Response其实有很多值得讨论的地方。这里我不展开讨论func get_wsgi_response()方法的实现。我们只要明确,返回了三个对象,app_iter(包含了需要返回的各项数据))status(状态码)headers(response headers)。其中app_iter就是我们上面刚刚讨论的application_iter。函数里调用传入的func start_response来写入status和headers。

def start_response(status, response_headers, exc_info=None):            if exc_info:                try:                    if headers_sent:                        reraise(*exc_info)                finally:                    exc_info = None            elif headers_set:                raise AssertionError('Headers already set')            headers_set[:] = [status, response_headers]            return write复制代码

func start_response()将status和response_headers合并在func run_wsgi()开始创建的数组里,然后返回一个func write()。这些信息只是被保存下来,此时还没有被写入wfile。此时我们获取了application_iter,开始迭代调用func write()将每一项信息写入wfile

def write(data):            assert headers_set, 'write() before start_response'            if not headers_sent:                status, response_headers = headers_sent[:] = headers_set                try:                    code, msg = status.split(None, 1)                except ValueError:                    code, msg = status, ""                self.send_response(int(code), msg)                header_keys = set()                for key, value in response_headers:                    self.send_header(key, value)                    key = key.lower()                    header_keys.add(key)                if 'content-length' not in header_keys:                    self.close_connection = True                    self.send_header('Connection', 'close')                if 'server' not in header_keys:                    self.send_header('Server', self.version_string())                if 'date' not in header_keys:                    self.send_header('Date', self.date_time_string())                self.end_headers()            assert isinstance(data, bytes), 'applications must write bytes'            self.wfile.write(data)            self.wfile.flush()复制代码

func write()首先判断了header_set是否为空,保证func start_response在func write之前执行。这是因为我们在写入数据之前首先要写入response_headers,再调用func self.end_headers()来将response_headers和应用数据区分开来。如果顺序错开就会发生错误。

再拿之前的例子用一下,这次我们加一点内容

import BaseHTTPServerclass HTTPServerHandler(BaseHTTPServer.BaseHTTPRequestHandler):	def do_GET(self):		self.send_response(200,'success message!')		self.end_headers()		self.wfile.write('hello world!')		def run(server_class=BaseHTTPServer.HTTPServer,        handler_class=HTTPServerHandler):    server_address = ('', 5000)    httpd = server_class(server_address, handler_class)    httpd.serve_forever()if __name__ == '__main__':		run()复制代码

运行这样一段代码之后打开浏览器输入127.0.0.1:5000,你可以看到浏览器显示

但是如果你替换了一下写入的顺序

def do_GET(self):		self.wfile.write('hello world!')				self.send_response(200,'success message!')		self.end_headers()复制代码

再次访问127.0.0.1:5000,这个时候就会报错了。

官网的文档解释了end_headers()的作用。虽然简单,但也还是要我们注意

end_headers() Sends a blank line, indicating the end of the HTTP headers in the response.

回到werkzeug的源码,之后我们判断headers_sent是否为空。其实看这个命令我们也能猜出大概,这是保存已经写入过的response_headers的数组。如果为空证明我们还没有写入,进入if判断里,从我们之前func start_response中保存的headers_set中取出状态码和response_headers写入返回信息中。并且核查了几个必要的response_headers是否存在,如果不存在就进行设置写入。并且每一个写入的response_headers都被保存进headers_sent。这样第二次调用func write就不再重复设置。

func write的最后是真正的数据写入操作。

回到func run_wsgi的主干上来。我们在拿到application_iter后开始逐个迭代调用func write写入response。另外,假设func start_response没有设置任何response_headers,application_iter也为空。为了保证func write一定被执行一次,response_headers默认值被写入。我们会写入一个*' '*的数据。

之后是一些对于异常的处理。包括超时或者不可预知的错误。会抛出异常或者打log记录。

至此。一个完整的web流程就走完了。


这篇文章作者尝试把werkzeug这颗大树的枝丫全部砍去,留下一根主干来说明这个框架核心所在。当然,现实的web应用不可能如此简单。比如

  • 所有的url的处理都导向一个func去处理。
  • 返回复杂的数据如何处理
  • 各种异常的处理
  • 对各种操作的容错处理

...

后面作者会从主干拓展开始,慢慢补回枝丫来解释其他部分。著名的Flask框架就是基于werkzeug和Jinja 2实现的。在之后的文章,我不希望拆开werkzeug和Flask来分析。当做一个整体来看会更加和谐,也便于理解。

如有错误,欢迎指正

转载地址:http://lruax.baihongyu.com/

你可能感兴趣的文章
oracle 11g impdp时 报ORA-12899(转)
查看>>
SQL Server高可用——日志传送(4-1)——概论
查看>>
WPF换肤之六:酷炫的时区浏览小精灵
查看>>
java.util.zip.Deflater 压缩 inflater解压 实例
查看>>
MySQL中游标使用以及读取文本数据
查看>>
mysql 的存储引擎介绍
查看>>
贾跃亭被法院列入“老赖”黑名单,这下真成“下周回国假药停”了?
查看>>
“智慧城西”大数据平台服务民生显实效
查看>>
最近开发电脑变得异常慢的原因和解决
查看>>
NIO模式例子
查看>>
从七大维度谈NoSQL数据库安全风险
查看>>
Redis简介以及数据类型存储
查看>>
Tomcat怎么实现异步Servlet
查看>>
Kubernetes部署的最佳安全实践
查看>>
理解C语言——从小菜到大神的晋级之路(8)——数组、指针和字符串
查看>>
Windows Shellcode学习笔记——shellcode在栈溢出中的利用与优化
查看>>
关于多线程中使用SendMessage
查看>>
【云栖大会】阿里云移动云Apsara Mobile重磅发布 推出Cloud Native App全新研发范式...
查看>>
【PMP】Head First PMP 学习笔记 第九章 人力资源管理
查看>>
2015年末必备前端工具集
查看>>