ਦੂਜੇ ਵਰਗੀਕਰਨ ਪਾਠ ਵਿੱਚ, ਤੁਸੀਂ ਅੰਕੜਿਆਂ ਨੂੰ ਵਰਗੀਕ੍ਰਿਤ ਕਰਨ ਦੇ ਹੋਰ ਤਰੀਕਿਆਂ ਬਾਰੇ ਜਾਣੋਗੇ। ਤੁਸੀਂ ਇਹ ਵੀ ਸਿੱਖੋਗੇ ਕਿ ਇੱਕ ਵਰਗੀਕਰਤਾ ਨੂੰ ਦੂਜੇ ਉੱਪਰ ਚੁਣਨ ਦੇ ਕੀ ਨਤੀਜੇ ਹੋ ਸਕਦੇ ਹਨ।
ਅਸੀਂ ਮਾਨਦੇ ਹਾਂ ਕਿ ਤੁਸੀਂ ਪਹਿਲੇ ਪਾਠ ਮੁਕੰਮਲ ਕਰ ਲਈ ਹੈ ਅਤੇ ਤੁਹਾਡੇ data ਫੋਲਡਰ ਵਿੱਚ ਇੱਕ ਸਾਫ਼ ਸੂਚੀਬੱਧ ਕੀਤਾ ਹੋਇਆ ਡੇਟਾਸੇਟ cleaned_cuisines.csv ਵੜ ਰੂਟ 4-ਪਾਠ ਫੋਲਡਰ ਵਿੱਚ ਹੈ।
ਅਸੀਂ ਤੁਹਾਡੀ notebook.ipynb ਫਾਇਲ ਵਿੱਚ ਸਾਫ਼ ਕੀਤੇ ਗਏ ਡੇਟਾਸੇਟ ਨੂੰ ਲੋਡ ਕੀਤਾ ਹੈ ਅਤੇ ਇਸ ਨੂੰ X ਅਤੇ y ਡੇਟਾ ਫਰੇਮਾਂ ਵਿੱਚ ਵੰਡਿਆ ਹੈ, ਮਾਡਲ ਬਣਾਉਣ ਦੀ ਪ੍ਰਕਿਰਿਆ ਲਈ ਤਿਆਰ।
ਪਹਿਲਾਂ, ਤੁਸੀਂ ਮਾਈਕ੍ਰੋਸੌਫਟ ਦੀ ਵੀਡੀ ਦੇ ਵਰਗੀਕਰਨ ਵਿਧੀਆਂ ਬਾਰੇ ਸਿੱਖਿਆ ਸੀ। Scikit-learn ਇੱਕ ਸਮਾਨ ਪਰ ਹੋਰ ਵਿਸਥਾਰ ਨਾਲ ਭਰਪੂਰ ਨਕਸ਼ਾ ਪੇਸ਼ ਕਰਦਾ ਹੈ ਜੋ ਤੁਹਾਡੇ ਅਨੁਮਾਨਕਤਾ (ਵਰਗੀਕਰਤਾਂ ਲਈ ਹੋਰ ਸ਼ਬਦ) ਦੀ ਚੋਣ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ:
ਟਿਪ: ਇਸ ਨਕਸ਼ੇ ਨੂੰ ਆਨਲਾਈਨ ਵੇਖੋ ਅਤੇ ਰਾਹ ਉੱਤੇ ਕਲਿੱਕ ਕਰਕੇ ਦਸਤਾਵੇਜ਼ਾਂ ਪੜ੍ਹੋ।
ਇਹ ਨਕਸ਼ਾ ਬਹੁਤ ਮਦਦਗਾਰ ਹੈ ਜਦੋਂ ਤੁਹਾਨੂੰ ਤੁਹਾਡੇ ਡੇਟਾ ਦੀ ਪੂਰੀ ਸਮਝ ਹੋਵੇ, ਕਿਉਂਕਿ ਤੁਸੀਂ ਇਸ ਦੇ ਰਾਹਾਂ ਦੇ ਨਾਲ 'ਚੱਲ' ਸਕਦੇ ਹੋ ਤਾ ਕਿ ਫੈਸਲਾ ਲਿਆ ਜਾ ਸਕੇ:
- ਸਾਡੇ ਕੋਲ >50 ਨਮੂਨੇ ਹਨ
- ਅਸੀਂ ਇੱਕ ਕੈਟੇਗਰੀ ਦੀ ਪੇਸ਼ਗੋਈ ਕਰਨੀ ਹੈ
- ਸਾਡੇ ਕੋਲ ਲੇਬਲ ਕੀਤੇ ਡੇਟਾ ਹੈ
- ਸਾਡੇ ਕੋਲ 100K ਤੋਂ ਘੱਟ ਨਮੂਨੇ ਹਨ
- ✨ ਅਸੀਂ Linear SVC ਚੁਣ ਸਕਦੇ ਹਾਂ
- ਜੇ ਇਹ ਕੰਮ ਨਾ ਲੱਗੇ, ਕਿਉਂਕਿ ਸਾਡੇ ਕੋਲ ਅੰਕੜੇ ਹਨ
- ਅਸੀਂ ✨ KNeighbors Classifier ਨੂੰ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੇ ਹਾਂ
- ਜੇ ਇਹ ਕੰਮ ਨਾ ਕਰੇ, ਤਾਂ ✨ SVC ਅਤੇ ✨ Ensemble Classifiers ਨੂੰ ਕੋਸ਼ਿਸ਼ ਕਰੋ
- ਅਸੀਂ ✨ KNeighbors Classifier ਨੂੰ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੇ ਹਾਂ
ਇਹ ਇੱਕ ਬਹੁਤ ਮਦਦਗਾਰ ਰਾਹ ਹੈ।
ਇਸ ਰਾਹ ਦੀ ਪਾਲਣਾ ਕਰਦਿਆਂ, ਅਸੀਂ ਪਹਿਲਾਂ ਕੁਝ ਲਾਇਬ੍ਰੇਰੀਜ਼ ਨੂੰ ਇੰਪੋਰਟ ਕਰਕੇ ਸ਼ੁਰੂ ਕਰੀਏਗਾ।
-
ਲੋੜੀਂਦੀਆਂ ਲਾਇਬ੍ਰੇਰੀਆਂ ਨੂੰ ਇੰਪੋਰਟ ਕਰੋ:
from sklearn.neighbors import KNeighborsClassifier from sklearn.linear_model import LogisticRegression from sklearn.svm import SVC from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier from sklearn.model_selection import train_test_split, cross_val_score from sklearn.metrics import accuracy_score,precision_score,confusion_matrix,classification_report, precision_recall_curve import numpy as np
-
ਆਪਣੇ ਟ੍ਰੇਨਿੰਗ ਅਤੇ ਟੈਸਟ ਡੇਟਾ ਨੂੰ ਵੰਡੋ:
X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3)
ਸਪੋਰਟ-ਵੈਕਟਰ ਕਲਸਟਰਿੰਗ (SVC) ਸਪੋਰਟ-ਵੈਕਟਰ ਮਸ਼ੀਨਾਂ ਦੇ ਪਰਿਵਾਰ ਦਾ ਇੱਕ ਬੱਚਾ ਹੈ ਜੋ ML ਤਕਨੀਕਾਂ ਵਿਚੋਂ ਹੈ (ਹੇਠਾਂ ਹੋਰ ਜਾਨੋ)। ਇਸ ਤਰੀਕੇ ਵਿੱਚ, ਤੁਸੀਂ ਲੇਬਲਾਂ ਨੂੰ ਕਲਸਟਰ ਕਰਨ ਲਈ ਇੱਕ 'ਕਰਨਲ' ਚੁਣ ਸਕਦੇ ਹੋ। 'C' ਪੈਰਾਮੀਟਰ 'ਨਿਯਮਿਤਾ' ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜੋ ਪੈਰਾਮੀਟਰਾਂ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਦਾ ਹੈ। ਕਰਨਲ ਕਈ ਕਿਸਮਾਂ ਵਿੱਚੋਂ ਇੱਕ ਹੋ ਸਕਦਾ ਹੈ ਕਈ; ਇੱਥੇ ਅਸੀਂ ਇਸਨੂੰ 'linear' ਤੇ ਸੈੱਟ ਕੀਤਾ ਹੈ ਤਾਂ ਜੋ ਲੀਨੀਅਰ SVC ਦੀ ਵਰਤੋਂ ਹੋ ਸਕੇ। ਪ੍ਰੋਬੈਬਿਲਟੀ ਡਿਫਾਲਟ 'false' ਹੁੰਦਾ ਹੈ; ਇੱਥੇ ਅਸੀਂ ਇਸਨੂੰ 'true' ਕੀਤਾ ਹੈ ਤਾਂ ਜੋ ਸੰਭਾਵਨਾ ਦਾ ਅੰਦਾਜ਼ਾ ਲਗਾਇਆ ਜਾਵੇ। ਅਸੀਂ ਰੈਂਡਮ ਸਟੇਟ ਨੂੰ '0' ਤੇ ਸੈੱਟ ਕੀਤਾ ਹੈ ਤਾਂ ਡੇਟਾ ਨੂੰ ਸ਼ਫ਼ਲ ਕੀਤਾ ਜਾਵੇ ਅਤੇ ਪ੍ਰੋਬੈਬਿਲਟੀ ਮਿਲੇ।
ਸ਼ੁਰੂਆਤ ਕਰੋ ਇੱਕ ਐਰੇ ਬਣਾਕੇ ਕਿੱਲਾਸੀਫਾਇਰਜ਼ ਦੀ। ਤੁਸੀਂ ਇਨ੍ਹਾਂ ਨੂੰ ਟੈਸਟ ਕਰਦਿਆਂ ਹੈ ਸੁٽي ਹੋਰ ਚੀਜ਼ਾਂ ਸ਼ਾਮਲ ਕਰਦੇ ਜਾਵੋਗੇ।
-
ਲੀਨੀਅਰ SVC ਨਾਲ ਸ਼ੁਰੂ ਕਰੋ:
C = 10 # ਵੱਖ-ਵੱਖ ਵਰਗੀਕਰਤਾ ਬਣਾਓ। classifiers = { 'Linear SVC': SVC(kernel='linear', C=C, probability=True,random_state=0) }
-
ਲੀਨੀਅਰ SVC ਵਰਗੀਕਰਤਾ ਨਾਲ ਮਾਡਲ ਟ੍ਰੇਨ ਕਰੋ ਅਤੇ ਇੱਕ ਰਿਪੋਰਟ ਪ੍ਰਿੰਟ ਕਰੋ:
n_classifiers = len(classifiers) for index, (name, classifier) in enumerate(classifiers.items()): classifier.fit(X_train, np.ravel(y_train)) y_pred = classifier.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print("Accuracy (train) for %s: %0.1f%% " % (name, accuracy * 100)) print(classification_report(y_test,y_pred))
ਨਤੀਜਾ ਬਹੁਤ ਚੰਗਾ ਹੈ:
Accuracy (train) for Linear SVC: 78.6% precision recall f1-score support chinese 0.71 0.67 0.69 242 indian 0.88 0.86 0.87 234 japanese 0.79 0.74 0.76 254 korean 0.85 0.81 0.83 242 thai 0.71 0.86 0.78 227 accuracy 0.79 1199 macro avg 0.79 0.79 0.79 1199 weighted avg 0.79 0.79 0.79 1199
K-Neighbors "ਨਿਬੇੜੇ" ਕੰਟੜੇ ਮਲ ਸਿੱਖਣ ਤਕਨੀਕ ਦਾ ਹਿੱਸਾ ਹੈ, ਜਿਸਨੂੰ ਦੋਵੇਂ ਸਿੱਖੇ ਜਾਂ ਅਣਸਿੱਖੇ ਸਿੱਖਣ ਲਈ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਇਸ ਵਿਚ, ਇੱਕ ਪਹਿਲਾਂ ਤਯਾਰ ਕੀਤਾ ਗਿਆ ਨਿੱਧਾਰਤ ਅੰਕ ਬਣਾਇਆ ਜਾਂਦਾ ਹੈ ਅਤੇ ਡੇਟਾ ਉਨ੍ਹਾਂ ਅੰਕਾਂ ਦੇ ਆਲੇ-ਦੁਆਲੇ ਇਕੱਠਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਤਾਂ ਜੋ ਆਮ ਲੇਬਲਾਂ ਦੀ ਪੇਸ਼ਗੋਈ ਕੀਤੀ ਜਾ ਸਕੇ।
ਪਹਿਲਾ ਵਰਗੀਕਰਤਾ ਚੰਗਾ ਸੀ, ਡੇਟਾ ਨਾਲ ਸਹੀ ਕੰਮ ਕੀਤਾ, ਪਰ ਸ਼ਾਇਦ ਅਸੀਂ ਹੋਰ ਬਿਹਤਰ ਸ਼ੁੱਧਤਾ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਾਂ। ਇੱਕ K-Neighbors ਵਰਗੀਕਰਤਾ ਕੋਸ਼ਿਸ਼ ਕਰੋ।
-
ਆਪਣੀ ਕਿੱਲਾਸੀਫਾਇਰ ਏਰੇ ਵਿੱਚ ਇੱਕ ਲਾਈਨ ਸ਼ਾਮਲ ਕਰੋ (ਲੀਨੀਅਰ SVC ਆਈਟਮ ਦੇ ਬਾਅਦ ਕੌਮਾ ਲਗਾਓ):
'KNN classifier': KNeighborsClassifier(C),
ਨਤੀਜਾ ਥੋੜ੍ਹਾ ਖ਼ਰਾਬ ਹੈ:
Accuracy (train) for KNN classifier: 73.8% precision recall f1-score support chinese 0.64 0.67 0.66 242 indian 0.86 0.78 0.82 234 japanese 0.66 0.83 0.74 254 korean 0.94 0.58 0.72 242 thai 0.71 0.82 0.76 227 accuracy 0.74 1199 macro avg 0.76 0.74 0.74 1199 weighted avg 0.76 0.74 0.74 1199
ਸਪੋਰਟ-ਵੈਕਟਰ ਵਰਗੀਕਰਤਾ ਸਪੋਰਟ-ਵੈਕਟਰ ਮਸ਼ੀਨ ਪਰਿਵਾਰ ਦੇ ਹਿੱਸੇ ਹਨ ਜੋ ਵਰਗੀਕਰਨ ਅਤੇ ਰਿਗ੍ਰੈਸ਼ਨ ਕਾਰਜਾਂ ਵਿੱਚ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। SVM "ਟ੍ਰੇਨਿੰਗ ਉਦਾਹਰਣਾਂ ਨੂੰ ਅਕਾਸ਼ ਵਿੱਚ ਨਕਸ਼ਾ ਪਾਂਵਦਾ ਹੈ" ਤਾਂ ਜੋ ਦੋਵਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦੇ ਵਿਚਕਾਰ ਦੂਰੀ ਵੱਧ ਤੋਂ ਵੱਧ ਹੋ ਸਕੇ। ਆਉਣ ਵਾਲੇ ਡੇਟਾ ਨੂੰ ਇਸ ਅਕਾਸ਼ ਵਿੱਚ ਢਾਲਿਆ ਜਾਂਦਾ ਹੈ ਤਾਂ ਜੋ ਉਨ੍ਹਾਂ ਦੀ ਕੈਟੇਗਰੀ ਦੀ ਪੇਸ਼ਗੋਈ ਕੀਤੀ ਜਾ ਸਕੇ।
ਆਓ ਸਪੋਰਟ ਵੈਕਟਰ ਵਰਗੀਕਰਤਾ ਨਾਲ ਕੁਝ ਹੋਰ ਬਿਹਤਰ ਸ਼ੁੱਧਤਾ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰੀਏ।
-
K-Neighbors ਆਈਟਮ ਦੇ ਬਾਅਦ ਕੌਮਾ ਸ਼ਾਮਲ ਕਰੋ, ਅਤੇ ਫਿਰ ਇਹ ਲਾਈਨ ਸ਼ਾਮਲ ਕਰੋ:
'SVC': SVC(),
ਨਤੀਜਾ ਕਾਫੀ ਚੰਗਾ ਹੈ!
Accuracy (train) for SVC: 83.2% precision recall f1-score support chinese 0.79 0.74 0.76 242 indian 0.88 0.90 0.89 234 japanese 0.87 0.81 0.84 254 korean 0.91 0.82 0.86 242 thai 0.74 0.90 0.81 227 accuracy 0.83 1199 macro avg 0.84 0.83 0.83 1199 weighted avg 0.84 0.83 0.83 1199
ਆਓ ਰਾਹ ਦੇ ਅੰਤ ਤੱਕ ਚੱਲਦੇ ਹਾਂ, ਹਾਲਾਂਕਿ ਪਿਛਲਾ ਟੈਸਟ ਬਹੁਤ ਚੰਗਾ ਸੀ। ਆਓ ਕੁਝ 'ਐਨਸੈਂਬਲ ਵਰਗੀਕਰਤਾ', ਖਾਸ ਕਰਕੇ ਰੈਂਡਮ ਫਾਰੈਸਟ ਅਤੇ ਐਡਾਬੂਸਟ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰੀਏ:
'RFST': RandomForestClassifier(n_estimators=100),
'ADA': AdaBoostClassifier(n_estimators=100)ਨਤੀਜਾ ਬਹੁਤ ਚੰਗਾ ਹੈ, ਖਾਸ ਕਰਕੇ ਰੈਂਡਮ ਫਾਰੈਸਟ ਲਈ:
Accuracy (train) for RFST: 84.5%
precision recall f1-score support
chinese 0.80 0.77 0.78 242
indian 0.89 0.92 0.90 234
japanese 0.86 0.84 0.85 254
korean 0.88 0.83 0.85 242
thai 0.80 0.87 0.83 227
accuracy 0.84 1199
macro avg 0.85 0.85 0.84 1199
weighted avg 0.85 0.84 0.84 1199
Accuracy (train) for ADA: 72.4%
precision recall f1-score support
chinese 0.64 0.49 0.56 242
indian 0.91 0.83 0.87 234
japanese 0.68 0.69 0.69 254
korean 0.73 0.79 0.76 242
thai 0.67 0.83 0.74 227
accuracy 0.72 1199
macro avg 0.73 0.73 0.72 1199
weighted avg 0.73 0.72 0.72 1199
ਇਸ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਦੇ ਤਰੀਕੇ "ਕਈ ਮੁੱਢਲੇ ਅਨੁਮਾਨਕਾਰਾਂ ਦੇ ਪੇਸ਼ਗੀ ਨੂੰ ਮਿਲਾ ਕੇ" ਮਾਡਲ ਦੀ ਗੁਣਵੱਤਾ ਨੂੰ ਸੁਧਾਰਦੇ ਹਨ। ਸਾਡੇ ਉਦਾਹਰਣ ਵਿੱਚ, ਅਸੀਂ Random Trees ਅਤੇ AdaBoost ਵਰਤੇ।
-
Random Forest, ਇੱਕ ਔਸਤ ਲਗਾਉਣ ਵਾਲਾ ਤਰੀਕਾ, 'ਡਿਸੀਜ਼ਨ ਟ੍ਰੀਜ਼' ਦਾ 'ਅਜਾੜਾ' ਬਣਾਉਂਦਾ ਹੈ ਜਿਸ ਵਿੱਚ ਰੈਂਡਮਨੈੱਸ ਦਾਖਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਜੋ ਅਧਿਕ ਅਨੁਕੂਲਤਾ ਤੋਂ ਬਚਿਆ ਜਾ ਸਕੇ। n_estimators ਪੈਰਾਮੀਟਰ ਟ੍ਰੀਜ਼ ਦੀ ਗਿਣਤੀ ਕਰਦਾ ਹੈ।
-
AdaBoost ਇੱਕ ਵਰਗੀਕਰਤਾ ਨੂੰ ਡੇਟਾਸੈੱਟ ਨਾਲ ਫਿੱਟ ਕਰਦਾ ਹੈ ਅਤੇ ਫਿਰ ਉਸੇ ਵਰਗੀਕਰਤਾ ਦੀਆਂ ਪ੍ਰਤੀਆਂ ਉਸੇ ਡੇਟਾਸੈੱਟ ਉੱਤੇ ਫਿੱਟ ਕਰਦਾ ਹੈ। ਇਹ ਗਲਤwari ਵਰਗੀਕ੍ਰਿਤ ਚੀਜ਼ਾਂ ਦੇ ਵਜ਼ਨਾਂ 'ਤੇ ध्यान ਕੇਂਦਰਤ ਕਰਦਾ ਹੈ ਅਤੇ ਅਗਲੇ ਵਰਗੀਕਰਤਾ ਲਈ ਫਿੱਟ ਨੂੰ ਸਹੀ ਕਰਦਾ ਹੈ।
ਹਰ ਇੱਕ ਤਕਨੀਕ ਵਿੱਚ ਬਹੁਤ ਸਾਰੇ ਪੈਰਾਮੀਟਰ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਤੁਸੀਂ ਸੁਧਾਰ ਸਕਦੇ ਹੋ। ਹਰ ਇਕ ਦੇ ਡਿਫਾਲਟ ਪੈਰਾਮੀਟਰਾਂ ਬਾਰੇ ਖੋਜ ਕਰੋ ਅਤੇ ਸੋਚੋ ਕਿ ਇਹਨਾਂ ਪੈਰਾਮੀਟਰਾਂ ਵਿੱਚ ਬਦਲਾਵ ਮਾਡਲ ਦੀ ਗੁਣਵੱਤਾ ਲਈ ਕੀ ਮਤਲਬ ਹੁੰਦਾ।
ਇਨ੍ਹਾਂ ਪਾਠਾਂ ਵਿੱਚ ਬਹੁਤ ਸਾਰਾ ਟਕਰੌਲਾ ਭਾਸ਼ਾ ਹੈ, ਇਸ ਲਈ ਇੱਕ ਮਿੰਟ ਲਵੋ ਅਤੇ ਇਸ ਸੂਚੀ ਤੋਂ ਲਾਭ uthao!
ਇਸਤਿਹਾਰ:
ਇਸ ਦਸਤਾਵੇਜ਼ ਨੂੰ AI ਅਨੁਵਾਦ ਸੇਵਾ Co-op Translator ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਅਨੁਵਾਦ ਕੀਤਾ ਗਿਆ ਹੈ। ਜਦੋਂ ਕਿ ਅਸੀਂ ਸਹੀਅਤ ਲਈ ਯਤਨ ਕਰਦੇ ਹਾਂ, ਕਿਰਪਾ ਕਰਕੇ ਧਿਆਨ ਵਿੱਚ ਰੱਖੋ ਕਿ ਆਟੋਮੈਟਿਕ ਅਨੁਵਾਦਾਂ ਵਿੱਚ ਗਲਤੀਆਂ ਜਾਂ ਅਸਥਿਰਤਾਵਾਂ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਮੂਲ ਦਸਤਾਵੇਜ਼, ਆਪਣੀ ਮੂਲ ਭਾਸ਼ਾ ਵਿੱਚ, ਪ੍ਰਮਾਣਿਕ ਸਰੋਤ ਮੰਨਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। ਮਹੱਤਵਪੂਰਣ ਜਾਣਕਾਰੀ ਲਈ, ਪ੍ਰੋਫੈਸ਼ਨਲ ਮਨੁੱਖੀ ਅਨੁਵਾਦ ਦੀ ਸਿਫ਼ਾਰਿਸ਼ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਅਸੀਂ ਇਸ ਅਨੁਵਾਦ ਦੀ ਵਰਤੋਂ ਤੋਂ ਪੈਦਾ ਹੋਣ ਵਾਲੀਆਂ ਕਿਸੇ ਵੀ ਗਲਤਫਹਮੀ ਜਾਂ ਗਲਤ ਵਿਚਾਰਾਂ ਲਈ ਜ਼ਿੰਮੇਵਾਰ ਨਹੀਂ ਹਾਂ।
