當前位置: 妍妍網 > 碼農

2025年之前有哪些Python庫值得學習?

2024-04-21碼農
  1. 「TensorFlow」

  • 「簡介」 :TensorFlow是一個由Google開發的開源機器學習框架,廣泛用於深度學習研究和生產中。它支持多種深度神經網路模型,適合從研究原型到生產部署的各種套用。

  • 「安裝」 pip install tensorflow

  • 「範例」

    import tensorflow as tf
    print("TensorFlow version:", tf.__version__)

  • 「NLTK」

  • 「簡介」 :Natural Language Toolkit(NLTK)是一個強大的Python庫,用於分類、標記、語意推理等自然語言處理(NLP)任務。

  • 「安裝」 pip install nltk

  • 「範例」

    import nltk
    from nltk.corpus import stopwords
    from nltk.tokenize import word_tokenize
    nltk.download('punkt')
    nltk.download('stopwords')
    text = "This is an example sentence."
    tokens = word_tokenize(text)
    filtered_words = [word for word in tokens if word notin stopwords.words('english')]
    print(filtered_words)

  • 「Pandas」

  • 「簡介」 :Pandas是一個數據分析庫,它提供了快速、靈活以及表達力強的數據結構,用於數據清洗和分析。

  • 「安裝」 pip install pandas

  • 「範例」

    import pandas as pd
    # 建立DataFrame
    data = {'Names': ['John''Anna''Peter''Linda'],
    'Age': [28243429],
    'City': ['New York''Los Angeles''Chicago''Houston']}
    df = pd.DataFrame(data)
    # 顯示DataFrame
    print(df)
    # 計算年齡的平均值
    print("Average Age:", df['Age'].mean())

  • 「NumPy」

  • 「簡介」 :NumPy是Python科學計算的基礎庫,提供了對多維陣列物件以及對這些陣列的高效操作的支持。

  • 「安裝」 pip install numpy

  • 「範例」

    import numpy as np
    # 建立一個NumPy陣列
    array = np.array([[123], [456]])
    # 計算陣列的總和
    print(np.sum(array))

  • 「Matplotlib」

  • 「簡介」 :Matplotlib是一個2D繪圖庫,它能夠生成品質精良的圖表和視覺化結果。

  • 「安裝」 pip install matplotlib

  • 「範例」

    import matplotlib.pyplot as plt
    # 建立一個簡單的線圖
    x = [12345]
    y = [1491625]
    plt.plot(x, y)
    plt.title('Square Numbers')
    plt.xlabel('Value')
    plt.ylabel('Square of Value')
    plt.show()

  • 「Scikit-learn」

  • 「簡介」 :Scikit-learn是一個簡單有效的機器學習庫,它提供了各種通用的機器學習演算法,如分類、回歸、聚類和降維等。

  • 「安裝」 pip install scikit-learn

  • 「範例」

    from sklearn.datasets import load_iris
    from sklearn.model_selection import train_test_split
    from sklearn.ensemble import RandomForest classifier
    # 載入Iris數據集
    iris = load_iris()
    X, y = iris.data, iris.target
    # 分割數據集
    X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)
    # 建立隨機森林分類器
    clf = RandomForest classifier(n_estimators=100)
    clf.fit(X_train, y_train)
    # 預測測試集
    predictions = clf.predict(X_test)
    print(predictions)


  • 「Requests」

  • 「簡介」 :Requests是Python的一個HTTP庫,用於發送各種HTTP請求。

  • 「安裝」 pip install requests

  • 「範例」

    import requests
    # 發送一個GET請求到GitHub API
    response = requests.get('https://api.github.com')
    if response.status_code == 200:
    print("Success!")
    print(response.json())
    else:
    print("Failed to retrieve data.")

  • 「Flask」

  • 「簡介」 :Flask是一個用Python編寫的輕量級Web套用框架,易於上手和擴充套件。

  • 「安裝」 pip install flask

  • 「範例」

    from flask import Flask, render_template
    app = Flask(__name__)
    @app.route('/')
    def home():
    return render_template('index.html')
    if __name__ == '__main__':
    app.run(debug=True)

  • 「SQLAlchemy」

  • 「簡介」 :SQLAlchemy是一個SQL工具包和ORM系統,它為應用程式提供了資料庫抽象層,支持多種資料庫系統。

  • 「安裝」 pip install sqlalchemy

  • 「範例」

    from sqlalchemy import create_engine, Column, Integer, String, MetaData, Table
    from sqlalchemy.orm import sessionmaker
    # 建立資料庫引擎
    engine = create_engine('sqlite:///test.db')
    # 建立後設資料物件
    meta = MetaData()
    # 定義表結構
    users = Table('users', meta,
    Column('id', Integer, primary_key=True),
    Column('name', String),
    Column('fullname', String))
    # 建立表
    meta.create_all(engine)
    # 建立會話
    Session = sessionmaker(bind=engine)
    session = Session()
    # 添加記錄
    new_user = users.insert().values(id=1, name='John Doe', fullname='John Alexander Doe')
    session.execute(new_user)
    session.commit()




  • 「BeautifulSoup」

  • 「簡介」 :BeautifulSoup是一個用於從HTML和XML檔中提取數據的庫,它能夠輕松解析出你需要的資訊。

  • 「安裝」 pip install beautifulsoup4

  • 「範例」

    from bs4 import BeautifulSoup
    import requests
    # 請求網頁
    response = requests.get('https://example.com')
    html_doc = response.text
    soup = BeautifulSoup(html_doc, 'html.parser')
    # 提取所有連結
    links = soup.find_all('a')
    # 打印連結的href內容
    for link in links:
    print(link.get('href'))