Python 命令行工具辅助getopt使用解析!

本文涉及的产品
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 正式的Python专栏第14篇,同学站住,别错过这个从0开始的文章!

这次介绍一下getopt这个库。


这个库学委在pypi-seed开源项目中使用了,本文介绍如何使用优雅的应对不同的参数,让cli命令行程序更加弹性!


python内置库getopt

getopt是一个简化命令行工具参数处理的库,可以定义短参数和长参数。这个说的比较官方。下面看看相对友好的介绍:


小白可能不太懂,它像媒人配对一样,自动的把参数进行配对。

你告诉他参数‘-a’ 后面跟一个名字,getopt可以在程序内解析出(a,名字)这样的映射

如果参数是这样:

–author=雷学委 --project=hello

getopt可以帮我们处理为:

(author, “雷学委”),(project,“hello”)


getopt的调用


#getopt.getopt传入三个参数
import getopt
getopt.getopt(args, options, [long_options])

比如pypiseed生成项目,接收了3个主要参数


name: 项目名

dir: 项目路径

author: 作者名字

我们从pypiseed调用命令来看如何编写getopt。


第一种 短参数类型

短参数类型,即是使用‘-‘ 加上一个单字母。比如大家非常常见的’-h’ (查看帮助信息) 或者 ‘-v’ (查看版本信息)


我们下面来看pypiseed CLI如何使用getopt模块的。


pypiseed -p demo_project -a testuser -d /tmp 

我们看到这个命令行pypiseed接受了-p , -a, -d 三个。

我们使用getopt 如何声明处理这三个参数。

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2021/9/9 10:45 下午
# @Author : LeiXueWei
# @CSDN/Juejin/Wechat: 雷学委
# @XueWeiTag: CodingDemo
# @File : getopstest.py
# @Project : hello
import sys
import getopt
def parse_args():
    project = author = dir = None
    print("argv:%s" % sys.argv)
    argv = sys.argv[1:]
    opts, args = getopt.getopt(argv, "p:a:d:", [])
    for opt, arg in opts:
        if opt in ['-p']:
            project = arg
        elif opt in ['-a']:
            author = arg
        elif opt in ['-d']:
            dir = arg
    print(" project:%s, author:%s, dir:%s " % (project, author, dir))
parse_args()

保存上面代码为getopstest.py,,输入三个参数并运行:

-p sample -a "雷学委" -d /tmp 

image.png

这里要注意‘-’ 后面接的必须是短参数,也就是一个字母。

像‘-dir’ 这种参数会导致getopt处理解析异常!

第二种 长参数类型

使用pypiseed生成项目的长参数类型

pypiseed --project demo_project --author testuser --dir=/tmp 

上面的代码不能支持长参数,这里单独做一个支持长参数的。

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Time : 2021/9/9 10:45 下午
# @Author : LeiXueWei
# @CSDN/Juejin/Wechat: 雷学委
# @XueWeiTag: CodingDemo
# @File : getopstest.py
# @Project : hello
import sys
import getopt
def parse_long_args():
    project = author = dir = None
    print("argv:%s" % sys.argv)
    argv = sys.argv[1:]
    opts, args = getopt.getopt(argv, "", ["project=", "author=", "dir="])
    for opt, arg in opts:
        if opt in ['--project']:
            project = arg
        elif opt in ['--author']:
            author = arg
        elif opt in ['--dir']:
            dir = arg
    print(" project:%s, author:%s, dir:%s " % (project, author, dir))
parse_long_args()

保存上面代码为getopstest.py,输入三个参数并运行:

-p sample -a "雷学委" -d /tmp 

这样就会出错:getopt.GetoptError: option -p not recognized

我们不能还是传递短参数,参数应该改为:

--project sample --author "雷学委" --dir "/tmp"

或者这样也支持

--project=sample --author="雷学委" --dir="/tmp"

image.png

第三种 长短参数合并使用

这里学委带大家回顾上面的两个代码,里面其实很像。

比较关键的区别的是对:getopt.getopt这个函数的调用。

#短参数解析调用

opts, args = getopt.getopt(argv, "p:a:d:", [])

#长参数解析调用

opts, args = getopt.getopt(argv, "", ["project=", "author=", "dir="])

先说说,getopt函数的参数,第一个是参数列表,它是从系统参数第二个开始到最后一个参数构成的列表。


然后第二个参数我们在第一段代码中看到设置的是短参数。这里定义一个字母或者多个字母即可。如果是带参数值的,后面跟上一个冒号(:, 比如a:, 表示-a '参数值‘)


然后第三个参数在第二段代码中是一个单词(可以跟上‘=’符合)的列表。带上等于符合表示,该参数后面可以跟上一个参数值。


好了,那同时处理短参数和长参数的代码就是把第二,第三的参数位置都设置对于短参数字母串和长参数的单词串。


参考下面代码:


    opts, args = getopt.getopt(argv, "p:a:d:", ["project=", "author=", "dir="])

总结

本文展示了getopt模块的使用,以及实际命令行工具开发的代码剖析。

这里有个福利,现在读者可以通过pypiseed,就能够一键生成命令行工具项目了,运行下面代码即可

pip install pypi-seed && pypiseed -p demo_project -a testuser -d /tmp --cli 
目录
相关文章
|
2天前
|
数据采集 存储 JSON
从零到一构建网络爬虫帝国:HTTP协议+Python requests库深度解析
在网络数据的海洋中,网络爬虫遵循HTTP协议,穿梭于互联网各处,收集宝贵信息。本文将从零开始,使用Python的requests库,深入解析HTTP协议,助你构建自己的网络爬虫帝国。首先介绍HTTP协议基础,包括请求与响应结构;然后详细介绍requests库的安装与使用,演示如何发送GET和POST请求并处理响应;最后概述爬虫构建流程及挑战,帮助你逐步掌握核心技术,畅游数据海洋。
17 3
|
10天前
|
机器学习/深度学习 人工智能 TensorFlow
深入骨髓的解析:Python中神经网络如何学会‘思考’,解锁AI新纪元
【9月更文挑战第11天】随着科技的发展,人工智能(AI)成为推动社会进步的关键力量,而神经网络作为AI的核心,正以其强大的学习和模式识别能力开启AI新纪元。本文将探讨Python中神经网络的工作原理,并通过示例代码展示其“思考”过程。神经网络模仿生物神经系统,通过加权连接传递信息并优化输出。Python凭借其丰富的科学计算库如TensorFlow和PyTorch,成为神经网络研究的首选语言。
12 1
|
12天前
|
存储 JSON API
Python编程:解析HTTP请求返回的JSON数据
使用Python处理HTTP请求和解析JSON数据既直接又高效。`requests`库的简洁性和强大功能使得发送请求、接收和解析响应变得异常简单。以上步骤和示例提供了一个基础的框架,可以根据你的具体需求进行调整和扩展。通过合适的异常处理,你的代码将更加健壮和可靠,为用户提供更加流畅的体验。
39 0
|
20天前
|
Java 缓存 数据库连接
揭秘!Struts 2性能翻倍的秘诀:不可思议的优化技巧大公开
【8月更文挑战第31天】《Struts 2性能优化技巧》介绍了提升Struts 2 Web应用响应速度的关键策略,包括减少配置开销、优化Action处理、合理使用拦截器、精简标签库使用、改进数据访问方式、利用缓存机制以及浏览器与网络层面的优化。通过实施这些技巧,如懒加载配置、异步请求处理、高效数据库连接管理和启用GZIP压缩等,可显著提高应用性能,为用户提供更快的体验。性能优化需根据实际场景持续调整。
44 0
|
20天前
|
数据采集 存储 数据库
Python中实现简单爬虫与数据解析
【8月更文挑战第31天】在数字化时代的浪潮中,数据成为了新的石油。本文将带领读者通过Python编程语言,从零开始构建一个简单的网络爬虫,并展示如何对爬取的数据进行解析和处理。我们将一起探索请求网站、解析HTML以及存储数据的基础知识,让每个人都能成为自己数据故事的讲述者。
|
20天前
|
数据采集 JavaScript 前端开发
Python 爬虫实战:抓取和解析网页数据
【8月更文挑战第31天】本文将引导你通过Python编写一个简单的网络爬虫,从网页中抓取并解析数据。我们将使用requests库获取网页内容,然后利用BeautifulSoup进行解析。通过本教程,你不仅能够学习到如何自动化地从网站收集信息,还能理解数据处理的基本概念。无论你是编程新手还是希望扩展你的技术工具箱,这篇文章都将为你提供有价值的见解。
|
20天前
|
数据采集 存储 JavaScript
构建你的首个Python网络爬虫:抓取、解析与存储数据
【8月更文挑战第31天】在数字时代的浪潮中,数据成为了新的石油。了解如何从互联网的海洋中提取有价值的信息,是每个技术爱好者的必备技能。本文将引导你通过Python编程语言,利用其强大的库支持,一步步构建出你自己的网络爬虫。我们将探索网页请求、内容解析和数据存储等关键环节,并附上代码示例,让你轻松入门网络数据采集的世界。
|
4天前
|
数据采集 机器学习/深度学习 人工智能
Python编程入门:从零基础到实战应用
【9月更文挑战第15天】本文将引导读者从零开始学习Python编程,通过简单易懂的语言和实例,帮助初学者掌握Python的基本语法和常用库,最终实现一个简单的实战项目。文章结构清晰,分为基础知识、进阶技巧和实战应用三个部分,逐步深入,让读者在学习过程中不断积累经验,提高编程能力。

热门文章

最新文章

推荐镜像

更多