当前位置: 欣欣网 > 码农

2025年之前有哪些Python库值得学习?

2024-04-21码农
  1. 「TensorFlow」

  • 「简介」 :TensorFlow是一个由Google开发的开源机器学习框架,广泛用于深度学习研究和生产中。它支持多种深度神经网络模型,适合从研究原型到生产部署的各种应用。

  • 「安装」 pip install tensorflow

  • 「示例」

    import tensorflow as tf
    print("TensorFlow version:", tf.__version__)

  • 「NLTK」

  • 「简介」 :Natural Language Toolkit(NLTK)是一个强大的Python库,用于分类、标记、语义推理等自然语言处理(NLP)任务。

  • 「安装」 pip install nltk

  • 「示例」

    import nltk
    from nltk.corpus import stopwords
    from nltk.tokenize import word_tokenize
    nltk.download('punkt')
    nltk.download('stopwords')
    text = "This is an example sentence."
    tokens = word_tokenize(text)
    filtered_words = [word for word in tokens if word notin stopwords.words('english')]
    print(filtered_words)

  • 「Pandas」

  • 「简介」 :Pandas是一个数据分析库,它提供了快速、灵活以及表达力强的数据结构,用于数据清洗和分析。

  • 「安装」 pip install pandas

  • 「示例」

    import pandas as pd
    # 创建DataFrame
    data = {'Names': ['John''Anna''Peter''Linda'],
    'Age': [28243429],
    'City': ['New York''Los Angeles''Chicago''Houston']}
    df = pd.DataFrame(data)
    # 显示DataFrame
    print(df)
    # 计算年龄的平均值
    print("Average Age:", df['Age'].mean())

  • 「NumPy」

  • 「简介」 :NumPy是Python科学计算的基础库,提供了对多维数组对象以及对这些数组的高效操作的支持。

  • 「安装」 pip install numpy

  • 「示例」

    import numpy as np
    # 创建一个NumPy数组
    array = np.array([[123], [456]])
    # 计算数组的总和
    print(np.sum(array))

  • 「Matplotlib」

  • 「简介」 :Matplotlib是一个2D绘图库,它能够生成品质精良的图表和可视化结果。

  • 「安装」 pip install matplotlib

  • 「示例」

    import matplotlib.pyplot as plt
    # 创建一个简单的线图
    x = [12345]
    y = [1491625]
    plt.plot(x, y)
    plt.title('Square Numbers')
    plt.xlabel('Value')
    plt.ylabel('Square of Value')
    plt.show()

  • 「Scikit-learn」

  • 「简介」 :Scikit-learn是一个简单有效的机器学习库,它提供了各种通用的机器学习算法,如分类、回归、聚类和降维等。

  • 「安装」 pip install scikit-learn

  • 「示例」

    from sklearn.datasets import load_iris
    from sklearn.model_selection import train_test_split
    from sklearn.ensemble import RandomForest classifier
    # 加载Iris数据集
    iris = load_iris()
    X, y = iris.data, iris.target
    # 分割数据集
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
    # 创建随机森林分类器
    clf = RandomForest classifier(n_estimators=100)
    clf.fit(X_train, y_train)
    # 预测测试集
    predictions = clf.predict(X_test)
    print(predictions)


  • 「Requests」

  • 「简介」 :Requests是Python的一个HTTP库,用于发送各种HTTP请求。

  • 「安装」 pip install requests

  • 「示例」

    import requests
    # 发送一个GET请求到GitHub API
    response = requests.get('https://api.github.com')
    if response.status_code == 200:
    print("Success!")
    print(response.json())
    else:
    print("Failed to retrieve data.")

  • 「Flask」

  • 「简介」 :Flask是一个用Python编写的轻量级Web应用框架,易于上手和扩展。

  • 「安装」 pip install flask

  • 「示例」

    from flask import Flask, render_template
    app = Flask(__name__)
    @app.route('/')
    def home():
    return render_template('index.html')
    if __name__ == '__main__':
    app.run(debug=True)

  • 「SQLAlchemy」

  • 「简介」 :SQLAlchemy是一个SQL工具包和ORM系统,它为应用程序提供了数据库抽象层,支持多种数据库系统。

  • 「安装」 pip install sqlalchemy

  • 「示例」

    from sqlalchemy import create_engine, Column, Integer, String, MetaData, Table
    from sqlalchemy.orm import sessionmaker
    # 创建数据库引擎
    engine = create_engine('sqlite:///test.db')
    # 创建元数据对象
    meta = MetaData()
    # 定义表结构
    users = Table('users', meta,
    Column('id', Integer, primary_key=True),
    Column('name', String),
    Column('fullname', String))
    # 创建表
    meta.create_all(engine)
    # 创建会话
    Session = sessionmaker(bind=engine)
    session = Session()
    # 添加记录
    new_user = users.insert().values(id=1, name='John Doe', fullname='John Alexander Doe')
    session.execute(new_user)
    session.commit()




  • 「BeautifulSoup」

  • 「简介」 :BeautifulSoup是一个用于从HTML和XML文件中提取数据的库,它能够轻松解析出你需要的信息。

  • 「安装」 pip install beautifulsoup4

  • 「示例」

    from bs4 import BeautifulSoup
    import requests
    # 请求网页
    response = requests.get('https://example.com')
    html_doc = response.text
    soup = BeautifulSoup(html_doc, 'html.parser')
    # 提取所有链接
    links = soup.find_all('a')
    # 打印链接的href属性
    for link in links:
    print(link.get('href'))