Skip to content

Latest commit

 

History

History
242 lines (163 loc) · 17.7 KB

File metadata and controls

242 lines (163 loc) · 17.7 KB

ਖਾਣ-ਪੀਣ ਵਰਗੀਕਰਨ 2

ਦੂਜੇ ਵਰਗੀਕਰਨ ਪਾਠ ਵਿੱਚ, ਤੁਸੀਂ ਅੰਕੜਿਆਂ ਨੂੰ ਵਰਗੀਕ੍ਰਿਤ ਕਰਨ ਦੇ ਹੋਰ ਤਰੀਕਿਆਂ ਬਾਰੇ ਜਾਣੋਗੇ। ਤੁਸੀਂ ਇਹ ਵੀ ਸਿੱਖੋਗੇ ਕਿ ਇੱਕ ਵਰਗੀਕਰਤਾ ਨੂੰ ਦੂਜੇ ਉੱਪਰ ਚੁਣਨ ਦੇ ਕੀ ਨਤੀਜੇ ਹੋ ਸਕਦੇ ਹਨ।

ਪਹਿਲਾਂ ਦੀਆਂ ਲੋੜਾਂ

ਅਸੀਂ ਮਾਨਦੇ ਹਾਂ ਕਿ ਤੁਸੀਂ ਪਹਿਲੇ ਪਾਠ ਮੁਕੰਮਲ ਕਰ ਲਈ ਹੈ ਅਤੇ ਤੁਹਾਡੇ data ਫੋਲਡਰ ਵਿੱਚ ਇੱਕ ਸਾਫ਼ ਸੂਚੀਬੱਧ ਕੀਤਾ ਹੋਇਆ ਡੇਟਾਸੇਟ cleaned_cuisines.csv ਵੜ ਰੂਟ 4-ਪਾਠ ਫੋਲਡਰ ਵਿੱਚ ਹੈ।

ਤਿਆਰੀ

ਅਸੀਂ ਤੁਹਾਡੀ notebook.ipynb ਫਾਇਲ ਵਿੱਚ ਸਾਫ਼ ਕੀਤੇ ਗਏ ਡੇਟਾਸੇਟ ਨੂੰ ਲੋਡ ਕੀਤਾ ਹੈ ਅਤੇ ਇਸ ਨੂੰ X ਅਤੇ y ਡੇਟਾ ਫਰੇਮਾਂ ਵਿੱਚ ਵੰਡਿਆ ਹੈ, ਮਾਡਲ ਬਣਾਉਣ ਦੀ ਪ੍ਰਕਿਰਿਆ ਲਈ ਤਿਆਰ।

ਇੱਕ ਵਰਗੀਕਰਨ ਨਕਸ਼ਾ

ਪਹਿਲਾਂ, ਤੁਸੀਂ ਮਾਈਕ੍ਰੋਸੌਫਟ ਦੀ ਵੀਡੀ ਦੇ ਵਰਗੀਕਰਨ ਵਿਧੀਆਂ ਬਾਰੇ ਸਿੱਖਿਆ ਸੀ। Scikit-learn ਇੱਕ ਸਮਾਨ ਪਰ ਹੋਰ ਵਿਸਥਾਰ ਨਾਲ ਭਰਪੂਰ ਨਕਸ਼ਾ ਪੇਸ਼ ਕਰਦਾ ਹੈ ਜੋ ਤੁਹਾਡੇ ਅਨੁਮਾਨਕਤਾ (ਵਰਗੀਕਰਤਾਂ ਲਈ ਹੋਰ ਸ਼ਬਦ) ਦੀ ਚੋਣ ਵਿੱਚ ਮਦਦ ਕਰਦਾ ਹੈ:

ML Map from Scikit-learn

ਟਿਪ: ਇਸ ਨਕਸ਼ੇ ਨੂੰ ਆਨਲਾਈਨ ਵੇਖੋ ਅਤੇ ਰਾਹ ਉੱਤੇ ਕਲਿੱਕ ਕਰਕੇ ਦਸਤਾਵੇਜ਼ਾਂ ਪੜ੍ਹੋ।

ਯੋਜਨਾ

ਇਹ ਨਕਸ਼ਾ ਬਹੁਤ ਮਦਦਗਾਰ ਹੈ ਜਦੋਂ ਤੁਹਾਨੂੰ ਤੁਹਾਡੇ ਡੇਟਾ ਦੀ ਪੂਰੀ ਸਮਝ ਹੋਵੇ, ਕਿਉਂਕਿ ਤੁਸੀਂ ਇਸ ਦੇ ਰਾਹਾਂ ਦੇ ਨਾਲ 'ਚੱਲ' ਸਕਦੇ ਹੋ ਤਾ ਕਿ ਫੈਸਲਾ ਲਿਆ ਜਾ ਸਕੇ:

  • ਸਾਡੇ ਕੋਲ >50 ਨਮੂਨੇ ਹਨ
  • ਅਸੀਂ ਇੱਕ ਕੈਟੇਗਰੀ ਦੀ ਪੇਸ਼ਗੋਈ ਕਰਨੀ ਹੈ
  • ਸਾਡੇ ਕੋਲ ਲੇਬਲ ਕੀਤੇ ਡੇਟਾ ਹੈ
  • ਸਾਡੇ ਕੋਲ 100K ਤੋਂ ਘੱਟ ਨਮੂਨੇ ਹਨ
  • ✨ ਅਸੀਂ Linear SVC ਚੁਣ ਸਕਦੇ ਹਾਂ
  • ਜੇ ਇਹ ਕੰਮ ਨਾ ਲੱਗੇ, ਕਿਉਂਕਿ ਸਾਡੇ ਕੋਲ ਅੰਕੜੇ ਹਨ
    • ਅਸੀਂ ✨ KNeighbors Classifier ਨੂੰ ਕੋਸ਼ਿਸ਼ ਕਰ ਸਕਦੇ ਹਾਂ
      • ਜੇ ਇਹ ਕੰਮ ਨਾ ਕਰੇ, ਤਾਂ ✨ SVC ਅਤੇ ✨ Ensemble Classifiers ਨੂੰ ਕੋਸ਼ਿਸ਼ ਕਰੋ

ਇਹ ਇੱਕ ਬਹੁਤ ਮਦਦਗਾਰ ਰਾਹ ਹੈ।

ਅਭਿਆਸ - ਡੇਟਾ ਵੰਡੋ

ਇਸ ਰਾਹ ਦੀ ਪਾਲਣਾ ਕਰਦਿਆਂ, ਅਸੀਂ ਪਹਿਲਾਂ ਕੁਝ ਲਾਇਬ੍ਰੇਰੀਜ਼ ਨੂੰ ਇੰਪੋਰਟ ਕਰਕੇ ਸ਼ੁਰੂ ਕਰੀਏਗਾ।

  1. ਲੋੜੀਂਦੀਆਂ ਲਾਇਬ੍ਰੇਰੀਆਂ ਨੂੰ ਇੰਪੋਰਟ ਕਰੋ:

    from sklearn.neighbors import KNeighborsClassifier
    from sklearn.linear_model import LogisticRegression
    from sklearn.svm import SVC
    from sklearn.ensemble import RandomForestClassifier, AdaBoostClassifier
    from sklearn.model_selection import train_test_split, cross_val_score
    from sklearn.metrics import accuracy_score,precision_score,confusion_matrix,classification_report, precision_recall_curve
    import numpy as np
  2. ਆਪਣੇ ਟ੍ਰੇਨਿੰਗ ਅਤੇ ਟੈਸਟ ਡੇਟਾ ਨੂੰ ਵੰਡੋ:

    X_train, X_test, y_train, y_test = train_test_split(cuisines_features_df, cuisines_label_df, test_size=0.3)

ਲੀਨੀਅਰ SVC ਵਰਗੀਕਰਤਾ

ਸਪੋਰਟ-ਵੈਕਟਰ ਕਲਸਟਰਿੰਗ (SVC) ਸਪੋਰਟ-ਵੈਕਟਰ ਮਸ਼ੀਨਾਂ ਦੇ ਪਰਿਵਾਰ ਦਾ ਇੱਕ ਬੱਚਾ ਹੈ ਜੋ ML ਤਕਨੀਕਾਂ ਵਿਚੋਂ ਹੈ (ਹੇਠਾਂ ਹੋਰ ਜਾਨੋ)। ਇਸ ਤਰੀਕੇ ਵਿੱਚ, ਤੁਸੀਂ ਲੇਬਲਾਂ ਨੂੰ ਕਲਸਟਰ ਕਰਨ ਲਈ ਇੱਕ 'ਕਰਨਲ' ਚੁਣ ਸਕਦੇ ਹੋ। 'C' ਪੈਰਾਮੀਟਰ 'ਨਿਯਮਿਤਾ' ਨੂੰ ਦਰਸਾਉਂਦਾ ਹੈ ਜੋ ਪੈਰਾਮੀਟਰਾਂ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਨਿਯੰਤਰਿਤ ਕਰਦਾ ਹੈ। ਕਰਨਲ ਕਈ ਕਿਸਮਾਂ ਵਿੱਚੋਂ ਇੱਕ ਹੋ ਸਕਦਾ ਹੈ ਕਈ; ਇੱਥੇ ਅਸੀਂ ਇਸਨੂੰ 'linear' ਤੇ ਸੈੱਟ ਕੀਤਾ ਹੈ ਤਾਂ ਜੋ ਲੀਨੀਅਰ SVC ਦੀ ਵਰਤੋਂ ਹੋ ਸਕੇ। ਪ੍ਰੋਬੈਬਿਲਟੀ ਡਿਫਾਲਟ 'false' ਹੁੰਦਾ ਹੈ; ਇੱਥੇ ਅਸੀਂ ਇਸਨੂੰ 'true' ਕੀਤਾ ਹੈ ਤਾਂ ਜੋ ਸੰਭਾਵਨਾ ਦਾ ਅੰਦਾਜ਼ਾ ਲਗਾਇਆ ਜਾਵੇ। ਅਸੀਂ ਰੈਂਡਮ ਸਟੇਟ ਨੂੰ '0' ਤੇ ਸੈੱਟ ਕੀਤਾ ਹੈ ਤਾਂ ਡੇਟਾ ਨੂੰ ਸ਼ਫ਼ਲ ਕੀਤਾ ਜਾਵੇ ਅਤੇ ਪ੍ਰੋਬੈਬਿਲਟੀ ਮਿਲੇ।

ਅਭਿਆਸ - ਇੱਕ ਲੀਨੀਅਰ SVC ਲਾਗੂ ਕਰੋ

ਸ਼ੁਰੂਆਤ ਕਰੋ ਇੱਕ ਐਰੇ ਬਣਾਕੇ ਕਿੱਲਾਸੀਫਾਇਰਜ਼ ਦੀ। ਤੁਸੀਂ ਇਨ੍ਹਾਂ ਨੂੰ ਟੈਸਟ ਕਰਦਿਆਂ ਹੈ ਸੁٽي ਹੋਰ ਚੀਜ਼ਾਂ ਸ਼ਾਮਲ ਕਰਦੇ ਜਾਵੋਗੇ।

  1. ਲੀਨੀਅਰ SVC ਨਾਲ ਸ਼ੁਰੂ ਕਰੋ:

    C = 10
    # ਵੱਖ-ਵੱਖ ਵਰਗੀਕਰਤਾ ਬਣਾਓ।
    classifiers = {
        'Linear SVC': SVC(kernel='linear', C=C, probability=True,random_state=0)
    }
  2. ਲੀਨੀਅਰ SVC ਵਰਗੀਕਰਤਾ ਨਾਲ ਮਾਡਲ ਟ੍ਰੇਨ ਕਰੋ ਅਤੇ ਇੱਕ ਰਿਪੋਰਟ ਪ੍ਰਿੰਟ ਕਰੋ:

    n_classifiers = len(classifiers)
    
    for index, (name, classifier) in enumerate(classifiers.items()):
        classifier.fit(X_train, np.ravel(y_train))
    
        y_pred = classifier.predict(X_test)
        accuracy = accuracy_score(y_test, y_pred)
        print("Accuracy (train) for %s: %0.1f%% " % (name, accuracy * 100))
        print(classification_report(y_test,y_pred))

    ਨਤੀਜਾ ਬਹੁਤ ਚੰਗਾ ਹੈ:

    Accuracy (train) for Linear SVC: 78.6% 
                  precision    recall  f1-score   support
    
         chinese       0.71      0.67      0.69       242
          indian       0.88      0.86      0.87       234
        japanese       0.79      0.74      0.76       254
          korean       0.85      0.81      0.83       242
            thai       0.71      0.86      0.78       227
    
        accuracy                           0.79      1199
       macro avg       0.79      0.79      0.79      1199
    weighted avg       0.79      0.79      0.79      1199
    

K-Neighbors ਵਰਗੀਕਰਤਾ

K-Neighbors "ਨਿਬੇੜੇ" ਕੰਟੜੇ ਮਲ ਸਿੱਖਣ ਤਕਨੀਕ ਦਾ ਹਿੱਸਾ ਹੈ, ਜਿਸਨੂੰ ਦੋਵੇਂ ਸਿੱਖੇ ਜਾਂ ਅਣਸਿੱਖੇ ਸਿੱਖਣ ਲਈ ਵਰਤਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਇਸ ਵਿਚ, ਇੱਕ ਪਹਿਲਾਂ ਤਯਾਰ ਕੀਤਾ ਗਿਆ ਨਿੱਧਾਰਤ ਅੰਕ ਬਣਾਇਆ ਜਾਂਦਾ ਹੈ ਅਤੇ ਡੇਟਾ ਉਨ੍ਹਾਂ ਅੰਕਾਂ ਦੇ ਆਲੇ-ਦੁਆਲੇ ਇਕੱਠਾ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਤਾਂ ਜੋ ਆਮ ਲੇਬਲਾਂ ਦੀ ਪੇਸ਼ਗੋਈ ਕੀਤੀ ਜਾ ਸਕੇ।

ਅਭਿਆਸ - K-Neighbors ਵਰਗੀਕਰਤਾ ਲਾਗੂ ਕਰੋ

ਪਹਿਲਾ ਵਰਗੀਕਰਤਾ ਚੰਗਾ ਸੀ, ਡੇਟਾ ਨਾਲ ਸਹੀ ਕੰਮ ਕੀਤਾ, ਪਰ ਸ਼ਾਇਦ ਅਸੀਂ ਹੋਰ ਬਿਹਤਰ ਸ਼ੁੱਧਤਾ ਪ੍ਰਾਪਤ ਕਰ ਸਕਦੇ ਹਾਂ। ਇੱਕ K-Neighbors ਵਰਗੀਕਰਤਾ ਕੋਸ਼ਿਸ਼ ਕਰੋ।

  1. ਆਪਣੀ ਕਿੱਲਾਸੀਫਾਇਰ ਏਰੇ ਵਿੱਚ ਇੱਕ ਲਾਈਨ ਸ਼ਾਮਲ ਕਰੋ (ਲੀਨੀਅਰ SVC ਆਈਟਮ ਦੇ ਬਾਅਦ ਕੌਮਾ ਲਗਾਓ):

    'KNN classifier': KNeighborsClassifier(C),

    ਨਤੀਜਾ ਥੋੜ੍ਹਾ ਖ਼ਰਾਬ ਹੈ:

    Accuracy (train) for KNN classifier: 73.8% 
                  precision    recall  f1-score   support
    
         chinese       0.64      0.67      0.66       242
          indian       0.86      0.78      0.82       234
        japanese       0.66      0.83      0.74       254
          korean       0.94      0.58      0.72       242
            thai       0.71      0.82      0.76       227
    
        accuracy                           0.74      1199
       macro avg       0.76      0.74      0.74      1199
    weighted avg       0.76      0.74      0.74      1199
    

    K-Neighbors ਬਾਰੇ ਜਾਣੋ

ਸਪੋਰਟ ਵੈਕਟਰ ਵਰਗੀਕਰਤਾ

ਸਪੋਰਟ-ਵੈਕਟਰ ਵਰਗੀਕਰਤਾ ਸਪੋਰਟ-ਵੈਕਟਰ ਮਸ਼ੀਨ ਪਰਿਵਾਰ ਦੇ ਹਿੱਸੇ ਹਨ ਜੋ ਵਰਗੀਕਰਨ ਅਤੇ ਰਿਗ੍ਰੈਸ਼ਨ ਕਾਰਜਾਂ ਵਿੱਚ ਵਰਤੇ ਜਾਂਦੇ ਹਨ। SVM "ਟ੍ਰੇਨਿੰਗ ਉਦਾਹਰਣਾਂ ਨੂੰ ਅਕਾਸ਼ ਵਿੱਚ ਨਕਸ਼ਾ ਪਾਂਵਦਾ ਹੈ" ਤਾਂ ਜੋ ਦੋਵਾਂ ਸ਼੍ਰੇਣੀਆਂ ਦੇ ਵਿਚਕਾਰ ਦੂਰੀ ਵੱਧ ਤੋਂ ਵੱਧ ਹੋ ਸਕੇ। ਆਉਣ ਵਾਲੇ ਡੇਟਾ ਨੂੰ ਇਸ ਅਕਾਸ਼ ਵਿੱਚ ਢਾਲਿਆ ਜਾਂਦਾ ਹੈ ਤਾਂ ਜੋ ਉਨ੍ਹਾਂ ਦੀ ਕੈਟੇਗਰੀ ਦੀ ਪੇਸ਼ਗੋਈ ਕੀਤੀ ਜਾ ਸਕੇ।

ਅਭਿਆਸ - ਸਪੋਰਟ ਵੈਕਟਰ ਵਰਗੀਕਰਤਾ ਲਾਗੂ ਕਰੋ

ਆਓ ਸਪੋਰਟ ਵੈਕਟਰ ਵਰਗੀਕਰਤਾ ਨਾਲ ਕੁਝ ਹੋਰ ਬਿਹਤਰ ਸ਼ੁੱਧਤਾ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰੀਏ।

  1. K-Neighbors ਆਈਟਮ ਦੇ ਬਾਅਦ ਕੌਮਾ ਸ਼ਾਮਲ ਕਰੋ, ਅਤੇ ਫਿਰ ਇਹ ਲਾਈਨ ਸ਼ਾਮਲ ਕਰੋ:

    'SVC': SVC(),

    ਨਤੀਜਾ ਕਾਫੀ ਚੰਗਾ ਹੈ!

    Accuracy (train) for SVC: 83.2% 
                  precision    recall  f1-score   support
    
         chinese       0.79      0.74      0.76       242
          indian       0.88      0.90      0.89       234
        japanese       0.87      0.81      0.84       254
          korean       0.91      0.82      0.86       242
            thai       0.74      0.90      0.81       227
    
        accuracy                           0.83      1199
       macro avg       0.84      0.83      0.83      1199
    weighted avg       0.84      0.83      0.83      1199
    

    ਸਪੋਰਟ-ਵੈਕਟਰ ਬਾਰੇ ਜਾਣਕਾਰੀ ਹਾਸਲ ਕਰੋ

ਐਨਸੈਂਬਲ ਵਰਗੀਕਰਤਾ

ਆਓ ਰਾਹ ਦੇ ਅੰਤ ਤੱਕ ਚੱਲਦੇ ਹਾਂ, ਹਾਲਾਂਕਿ ਪਿਛਲਾ ਟੈਸਟ ਬਹੁਤ ਚੰਗਾ ਸੀ। ਆਓ ਕੁਝ 'ਐਨਸੈਂਬਲ ਵਰਗੀਕਰਤਾ', ਖਾਸ ਕਰਕੇ ਰੈਂਡਮ ਫਾਰੈਸਟ ਅਤੇ ਐਡਾਬੂਸਟ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰੀਏ:

  'RFST': RandomForestClassifier(n_estimators=100),
  'ADA': AdaBoostClassifier(n_estimators=100)

ਨਤੀਜਾ ਬਹੁਤ ਚੰਗਾ ਹੈ, ਖਾਸ ਕਰਕੇ ਰੈਂਡਮ ਫਾਰੈਸਟ ਲਈ:

Accuracy (train) for RFST: 84.5% 
              precision    recall  f1-score   support

     chinese       0.80      0.77      0.78       242
      indian       0.89      0.92      0.90       234
    japanese       0.86      0.84      0.85       254
      korean       0.88      0.83      0.85       242
        thai       0.80      0.87      0.83       227

    accuracy                           0.84      1199
   macro avg       0.85      0.85      0.84      1199
weighted avg       0.85      0.84      0.84      1199

Accuracy (train) for ADA: 72.4% 
              precision    recall  f1-score   support

     chinese       0.64      0.49      0.56       242
      indian       0.91      0.83      0.87       234
    japanese       0.68      0.69      0.69       254
      korean       0.73      0.79      0.76       242
        thai       0.67      0.83      0.74       227

    accuracy                           0.72      1199
   macro avg       0.73      0.73      0.72      1199
weighted avg       0.73      0.72      0.72      1199

ਐਨਸੈਂਬਲ ਵਰਗੀਕਰਤਾ ਬਾਰੇ ਜਾਣੋ

ਇਸ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਦੇ ਤਰੀਕੇ "ਕਈ ਮੁੱਢਲੇ ਅਨੁਮਾਨਕਾਰਾਂ ਦੇ ਪੇਸ਼ਗੀ ਨੂੰ ਮਿਲਾ ਕੇ" ਮਾਡਲ ਦੀ ਗੁਣਵੱਤਾ ਨੂੰ ਸੁਧਾਰਦੇ ਹਨ। ਸਾਡੇ ਉਦਾਹਰਣ ਵਿੱਚ, ਅਸੀਂ Random Trees ਅਤੇ AdaBoost ਵਰਤੇ।

  • Random Forest, ਇੱਕ ਔਸਤ ਲਗਾਉਣ ਵਾਲਾ ਤਰੀਕਾ, 'ਡਿਸੀਜ਼ਨ ਟ੍ਰੀਜ਼' ਦਾ 'ਅਜਾੜਾ' ਬਣਾਉਂਦਾ ਹੈ ਜਿਸ ਵਿੱਚ ਰੈਂਡਮਨੈੱਸ ਦਾਖਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਜੋ ਅਧਿਕ ਅਨੁਕੂਲਤਾ ਤੋਂ ਬਚਿਆ ਜਾ ਸਕੇ। n_estimators ਪੈਰਾਮੀਟਰ ਟ੍ਰੀਜ਼ ਦੀ ਗਿਣਤੀ ਕਰਦਾ ਹੈ।

  • AdaBoost ਇੱਕ ਵਰਗੀਕਰਤਾ ਨੂੰ ਡੇਟਾਸੈੱਟ ਨਾਲ ਫਿੱਟ ਕਰਦਾ ਹੈ ਅਤੇ ਫਿਰ ਉਸੇ ਵਰਗੀਕਰਤਾ ਦੀਆਂ ਪ੍ਰਤੀਆਂ ਉਸੇ ਡੇਟਾਸੈੱਟ ਉੱਤੇ ਫਿੱਟ ਕਰਦਾ ਹੈ। ਇਹ ਗਲਤwari ਵਰਗੀਕ੍ਰਿਤ ਚੀਜ਼ਾਂ ਦੇ ਵਜ਼ਨਾਂ 'ਤੇ ध्यान ਕੇਂਦਰਤ ਕਰਦਾ ਹੈ ਅਤੇ ਅਗਲੇ ਵਰਗੀਕਰਤਾ ਲਈ ਫਿੱਟ ਨੂੰ ਸਹੀ ਕਰਦਾ ਹੈ।


🚀ਚੈਲੈਂਜ

ਹਰ ਇੱਕ ਤਕਨੀਕ ਵਿੱਚ ਬਹੁਤ ਸਾਰੇ ਪੈਰਾਮੀਟਰ ਹਨ ਜਿਨ੍ਹਾਂ ਨੂੰ ਤੁਸੀਂ ਸੁਧਾਰ ਸਕਦੇ ਹੋ। ਹਰ ਇਕ ਦੇ ਡਿਫਾਲਟ ਪੈਰਾਮੀਟਰਾਂ ਬਾਰੇ ਖੋਜ ਕਰੋ ਅਤੇ ਸੋਚੋ ਕਿ ਇਹਨਾਂ ਪੈਰਾਮੀਟਰਾਂ ਵਿੱਚ ਬਦਲਾਵ ਮਾਡਲ ਦੀ ਗੁਣਵੱਤਾ ਲਈ ਕੀ ਮਤਲਬ ਹੁੰਦਾ।

ਸਮੀਖਿਆ ਅਤੇ ਸਵੈ-ਅਧਿਐਨ

ਇਨ੍ਹਾਂ ਪਾਠਾਂ ਵਿੱਚ ਬਹੁਤ ਸਾਰਾ ਟਕਰੌਲਾ ਭਾਸ਼ਾ ਹੈ, ਇਸ ਲਈ ਇੱਕ ਮਿੰਟ ਲਵੋ ਅਤੇ ਇਸ ਸੂਚੀ ਤੋਂ ਲਾਭ uthao!

ਅਸਾਈਨਮੈਂਟ

ਪੈਰਾਮੀਟਰ ਖੇਡ


ਇਸਤਿਹਾਰ:
ਇਸ ਦਸਤਾਵੇਜ਼ ਨੂੰ AI ਅਨੁਵਾਦ ਸੇਵਾ Co-op Translator ਦੀ ਵਰਤੋਂ ਕਰਕੇ ਅਨੁਵਾਦ ਕੀਤਾ ਗਿਆ ਹੈ। ਜਦੋਂ ਕਿ ਅਸੀਂ ਸਹੀਅਤ ਲਈ ਯਤਨ ਕਰਦੇ ਹਾਂ, ਕਿਰਪਾ ਕਰਕੇ ਧਿਆਨ ਵਿੱਚ ਰੱਖੋ ਕਿ ਆਟੋਮੈਟਿਕ ਅਨੁਵਾਦਾਂ ਵਿੱਚ ਗਲਤੀਆਂ ਜਾਂ ਅਸਥਿਰਤਾਵਾਂ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਮੂਲ ਦਸਤਾਵੇਜ਼, ਆਪਣੀ ਮੂਲ ਭਾਸ਼ਾ ਵਿੱਚ, ਪ੍ਰਮਾਣਿਕ ਸਰੋਤ ਮੰਨਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ। ਮਹੱਤਵਪੂਰਣ ਜਾਣਕਾਰੀ ਲਈ, ਪ੍ਰੋਫੈਸ਼ਨਲ ਮਨੁੱਖੀ ਅਨੁਵਾਦ ਦੀ ਸਿਫ਼ਾਰਿਸ਼ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਅਸੀਂ ਇਸ ਅਨੁਵਾਦ ਦੀ ਵਰਤੋਂ ਤੋਂ ਪੈਦਾ ਹੋਣ ਵਾਲੀਆਂ ਕਿਸੇ ਵੀ ਗਲਤਫਹਮੀ ਜਾਂ ਗਲਤ ਵਿਚਾਰਾਂ ਲਈ ਜ਼ਿੰਮੇਵਾਰ ਨਹੀਂ ਹਾਂ।