अपने स्वयं के प्रश्न का उत्तर यहां दे रहा हूं, क्योंकि मुझे आशा है कि यह कुछ पाठकों के लिए उपयोगी होगा।
Scikit-learn मुख्य रूप से वेक्टर संरचित डेटा से निपटने के लिए डिज़ाइन किया गया है। इसलिए, यदि आप ग्राफ़-संरचित डेटा पर फैलने वाले लेबल प्रचार / लेबल करना चाहते हैं, तो आप शायद स्किट इंटरफ़ेस का उपयोग करने के बजाय स्वयं विधि को फिर से लागू कर सकते हैं।
यहाँ PyTorch में लेबल प्रसार और लेबल प्रसार का कार्यान्वयन है।
कुल मिलाकर दो विधियाँ समान एल्गोरिथम चरणों का पालन करती हैं, साथ ही विभिन्नताएँ भी बताती हैं कि किस प्रकार आसन्न मैट्रिक्स को सामान्य किया जाता है और प्रत्येक चरण में लेबल का कैसे प्रचार किया जाता है। इसलिए, अपने दो मॉडल के लिए एक बेस क्लास बनाएं।
from abc import abstractmethod
import torch
class BaseLabelPropagation:
"""Base class for label propagation models.
Parameters
----------
adj_matrix: torch.FloatTensor
Adjacency matrix of the graph.
"""
def __init__(self, adj_matrix):
self.norm_adj_matrix = self._normalize(adj_matrix)
self.n_nodes = adj_matrix.size(0)
self.one_hot_labels = None
self.n_classes = None
self.labeled_mask = None
self.predictions = None
@staticmethod
@abstractmethod
def _normalize(adj_matrix):
raise NotImplementedError("_normalize must be implemented")
@abstractmethod
def _propagate(self):
raise NotImplementedError("_propagate must be implemented")
def _one_hot_encode(self, labels):
# Get the number of classes
classes = torch.unique(labels)
classes = classes[classes != -1]
self.n_classes = classes.size(0)
# One-hot encode labeled data instances and zero rows corresponding to unlabeled instances
unlabeled_mask = (labels == -1)
labels = labels.clone() # defensive copying
labels[unlabeled_mask] = 0
self.one_hot_labels = torch.zeros((self.n_nodes, self.n_classes), dtype=torch.float)
self.one_hot_labels = self.one_hot_labels.scatter(1, labels.unsqueeze(1), 1)
self.one_hot_labels[unlabeled_mask, 0] = 0
self.labeled_mask = ~unlabeled_mask
def fit(self, labels, max_iter, tol):
"""Fits a semi-supervised learning label propagation model.
labels: torch.LongTensor
Tensor of size n_nodes indicating the class number of each node.
Unlabeled nodes are denoted with -1.
max_iter: int
Maximum number of iterations allowed.
tol: float
Convergence tolerance: threshold to consider the system at steady state.
"""
self._one_hot_encode(labels)
self.predictions = self.one_hot_labels.clone()
prev_predictions = torch.zeros((self.n_nodes, self.n_classes), dtype=torch.float)
for i in range(max_iter):
# Stop iterations if the system is considered at a steady state
variation = torch.abs(self.predictions - prev_predictions).sum().item()
if variation < tol:
print(f"The method stopped after {i} iterations, variation={variation:.4f}.")
break
prev_predictions = self.predictions
self._propagate()
def predict(self):
return self.predictions
def predict_classes(self):
return self.predictions.max(dim=1).indices
मॉडल ग्राफ के आसन्न मैट्रिक्स के साथ-साथ नोड्स के लेबल के रूप में लेता है। लेबल एक पूर्णांक के वेक्टर के रूप में होते हैं, जो प्रत्येक नोड की कक्षा संख्या को गैर-लेबल नोड्स की स्थिति में -1 के साथ दर्शाता है।
लेबल प्रचार एल्गोरिथ्म नीचे प्रस्तुत किया गया है।
डब्ल्यू : ग्राफ के आसन्न मैट्रिक्स विकर्ण डिग्री मैट्रिक्स डी द्वारा डी की गणना करें मैं मैं← Σजेडब्ल्यूमैं जे प्रारंभिक वाई^( 0 )← ( y)1, ... , yएल, 0 , 0 , … , 0 ) दोहराएं 1. य^( t + 1 )← डी- 1डब्ल्यू वाई^( टी ) 2. य^( t + 1 )एल← यएलवाई तक अभिसरण ^( ∞ ) लेबल बिंदु xमैं के संकेत से y^( ∞ )मैं
से Xiaojin झू और जौयबिन घह्रमानी। लेबल प्रसार के साथ लेबल और लेबल रहित डेटा से सीखना। तकनीकी रिपोर्ट CMU-CALD-02-107, कार्नेगी मेलन विश्वविद्यालय, 2002
हमें निम्नलिखित कार्यान्वयन मिलता है।
class LabelPropagation(BaseLabelPropagation):
def __init__(self, adj_matrix):
super().__init__(adj_matrix)
@staticmethod
def _normalize(adj_matrix):
"""Computes D^-1 * W"""
degs = adj_matrix.sum(dim=1)
degs[degs == 0] = 1 # avoid division by 0 error
return adj_matrix / degs[:, None]
def _propagate(self):
self.predictions = torch.matmul(self.norm_adj_matrix, self.predictions)
# Put back already known labels
self.predictions[self.labeled_mask] = self.one_hot_labels[self.labeled_mask]
def fit(self, labels, max_iter=1000, tol=1e-3):
super().fit(labels, max_iter, tol)
लेबल स्प्रेडिंग एल्गोरिथ्म है:
डब्ल्यू : ग्राफ के आसन्न मैट्रिक्स विकर्ण डिग्री मैट्रिक्स डी द्वारा डी की गणना करें मैं मैं← Σजेडब्ल्यूमैं जे सामान्यीकृत ग्राफ लैपेलियन की गणना करें एल ← डी- 1 / 2डब्ल्यू डी- 1 / 2 प्रारंभिक वाई^( 0 )← ( y)1, ... , yएल, 0 , 0 , … , 0 ) एक पैरामीटर चुनें α ∈ [ 0 , 1 ) Iterate Y^( t + 1 ) ← α L Y^( टी )+ ( 1 - α ) वाई^( 0 )वाई तक अभिसरण ^( ∞ ) लेबल बिंदु xमैंy के संकेत से ^( ∞ )मैं
डेंग्योंग ज़ोउ से , ओलिवियर बाउसक्वेट, थॉमस नवीन लाल, जेसन वेस्टन, बर्नहार्ड स्केलकोफ़। स्थानीय और वैश्विक स्थिरता के साथ सीखना (2004)
कार्यान्वयन, इसलिए, निम्नलिखित है।
class LabelSpreading(BaseLabelPropagation):
def __init__(self, adj_matrix):
super().__init__(adj_matrix)
self.alpha = None
@staticmethod
def _normalize(adj_matrix):
"""Computes D^-1/2 * W * D^-1/2"""
degs = adj_matrix.sum(dim=1)
norm = torch.pow(degs, -0.5)
norm[torch.isinf(norm)] = 1
return adj_matrix * norm[:, None] * norm[None, :]
def _propagate(self):
self.predictions = (
self.alpha * torch.matmul(self.norm_adj_matrix, self.predictions)
+ (1 - self.alpha) * self.one_hot_labels
)
def fit(self, labels, max_iter=1000, tol=1e-3, alpha=0.5):
"""
Parameters
----------
alpha: float
Clamping factor.
"""
self.alpha = alpha
super().fit(labels, max_iter, tol)
आइए अब सिंथेटिक डेटा पर हमारे प्रचार मॉडल का परीक्षण करें। ऐसा करने के लिए, हम एक गुफाओं के ग्राफ़ का उपयोग करना चुनते हैं ।
import pandas as pd
import numpy as np
import networkx as nx
import matplotlib.pyplot as plt
# Create caveman graph
n_cliques = 4
size_cliques = 10
caveman_graph = nx.connected_caveman_graph(n_cliques, size_cliques)
adj_matrix = nx.adjacency_matrix(caveman_graph).toarray()
# Create labels
labels = np.full(n_cliques * size_cliques, -1.)
# Only one node per clique is labeled. Each clique belongs to a different class.
labels[0] = 0
labels[size_cliques] = 1
labels[size_cliques * 2] = 2
labels[size_cliques * 3] = 3
# Create input tensors
adj_matrix_t = torch.FloatTensor(adj_matrix)
labels_t = torch.LongTensor(labels)
# Learn with Label Propagation
label_propagation = LabelPropagation(adj_matrix_t)
label_propagation.fit(labels_t)
label_propagation_output_labels = label_propagation.predict_classes()
# Learn with Label Spreading
label_spreading = LabelSpreading(adj_matrix_t)
label_spreading.fit(labels_t, alpha=0.8)
label_spreading_output_labels = label_spreading.predict_classes()
# Plot graphs
color_map = {-1: "orange", 0: "blue", 1: "green", 2: "red", 3: "cyan"}
input_labels_colors = [color_map[l] for l in labels]
lprop_labels_colors = [color_map[l] for l in label_propagation_output_labels.numpy()]
lspread_labels_colors = [color_map[l] for l in label_spreading_output_labels.numpy()]
plt.figure(figsize=(14, 6))
ax1 = plt.subplot(1, 4, 1)
ax2 = plt.subplot(1, 4, 2)
ax3 = plt.subplot(1, 4, 3)
ax1.title.set_text("Raw data (4 classes)")
ax2.title.set_text("Label Propagation")
ax3.title.set_text("Label Spreading")
pos = nx.spring_layout(caveman_graph)
nx.draw(caveman_graph, ax=ax1, pos=pos, node_color=input_labels_colors, node_size=50)
nx.draw(caveman_graph, ax=ax2, pos=pos, node_color=lprop_labels_colors, node_size=50)
nx.draw(caveman_graph, ax=ax3, pos=pos, node_color=lspread_labels_colors, node_size=50)
# Legend
ax4 = plt.subplot(1, 4, 4)
ax4.axis("off")
legend_colors = ["orange", "blue", "green", "red", "cyan"]
legend_labels = ["unlabeled", "class 0", "class 1", "class 2", "class 3"]
dummy_legend = [ax4.plot([], [], ls='-', c=c)[0] for c in legend_colors]
plt.legend(dummy_legend, legend_labels)
plt.show()
कार्यान्वित मॉडल सही ढंग से काम करते हैं और ग्राफ में समुदायों का पता लगाने की अनुमति देते हैं।
नोट: प्रस्तुत प्रचार विधियों का उपयोग अप्रत्यक्ष ग्राफ़ पर किया जाना है।
कोड यहां एक इंटरैक्टिव ज्यूपिटर नोटबुक के रूप में उपलब्ध है ।