Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

[id] cs-229-unsupervised-learning #139

Open
wants to merge 35 commits into
base: master
Choose a base branch
from

Conversation

swicaksono
Copy link

Hi, I've finished and need a review for my work translating the unsupervised learning cheatsheet. Thank you.

Copy link
Contributor

@gitarja gitarja left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Mas perkenalkan saya Prasetia, dan ada beberapa review. Menurut saya untuk weights tidak perlu diterjemahkan dikarenakan merupakan kosakata teknis yang umum di bidang neural network.

Terimakasih

@@ -60,7 +60,7 @@

**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.**

⟶**11. Learning rate - Learning rate (Tingkat pembelajaran), sering dinotasikan sebagai α atau η, merupakan fase pembaruan pembobotan. Tingkat pembelajaran dapat diperbaiki atau diubah secara adaptif. Metode yang paling populer saat ini disebut Adam, yang merupakan metode yang dapat menyesuaikan tingkat pembelajaran.
⟶**11. Learning rate - Learning rate (Tingkat pembelajaran), sering dinotasikan sebagai α atau η, merupakan fase pembaruan pembobotan. Tingkat pembelajaran dapat diperbaiki atau diubah secara adaptif. Metode yang paling populer saat ini disebut Adam, yang merupakan metode yang dapat menyesuaikan tingkat pembelajaran.**
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Learning rate- Learning rate, sering dinotasikan sebagai α atau η, mendefinisikan seberapa cepat nilai weight diperbaharui. Learning rate bisa diset dengan nilai fix atau dirubah secara adaptif. Metode yang paling terkenal saat ini adalah Adam, sebuah method yang merubah learning rate secara adaptif.

@@ -78,61 +78,62 @@

**14. Updating weights ― In a neural network, weights are updated as follows:**

⟶
⟶**14. Memperbaharui bobot w - Dalam neural network, bobot w diperbarui nilainya dengan cara berikut:**

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Memperbaharui nilai weights - Dalam neural network, nilai weights diperbaharui nilainya dengan cara berikut:

Menurut saya weights tidak usah diterjemahkan, karena merupakan kosakata teknis pada neural network


<br>

**15. Step 1: Take a batch of training data.**

&#10230;
&#10230;**15. Langkah 1: Mengambil jumlah batch dari data latih.**

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

  1. Langkah 1: Mengambil batch (sample data) dari keseluruhan training data.


<br>

**16. Step 2: Perform forward propagation to obtain the corresponding loss.**

&#10230;
&#10230;**16. Langkah 2: Melakukan forward propagation untuk mendapatkan nilai loss yang sesuai. **

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

  1. Langkah 2: Melakukan forward propagation untuk mendapatkan nilai loss berdasarkan nilai masukan (input).


<br>

**18. Step 4: Use the gradients to update the weights of the network.**

&#10230;
&#10230;**18. Langkah 4: Menggunakan gradient untuk untuk memperbarui nilai dari network.**

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

  1. Langkah 4: Menggunakan gradient untuk untuk memperbarui nilai weight dari network.


<br>

**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p**

&#10230;
&#10230;**19. Dropout - Dropout adalah teknik untuk mencegah overfitting data latih dengan menghilangkan satu atau lebih unit layer dalam neural network. Pada praktiknya, neurons melakukan drop dengan probabilitas p atau tidak melakukannya dengan probabilitas 1-p**
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

  1. Dropout - Dropout adalah teknik untuk mencegah model overfit terhadap training data dengan menghilangkan satu atau lebih unit layer dalam neural network. Pada praktiknya, neurons di-drop dengan probabilitas p atau dipertahankan dengan probabilitas 1-p


<br>

**21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:**

&#10230;
&#10230; **21. Kebutuhan layer convolutional - W adalah ukuran volume input, F adalah ukuran dari layer neuron convolutional, P adalah jumlah zero padding, maka jumlah neurons N yang dapat dibentuk dari volume yang diberikan adalah: **

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

maka jumlah neuron N yang sesuai dengan ukuran dimensi masukan adalah:


<br>

**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:**

&#10230;
&#10230; **22. Batch normalization - Adalah salah satu step hyperparameter γ,β yang menormalisasikan batch {xi}. Dengan notasi μB,σ2B adalah rata-rata dan variansi nilai yang digunakan untuk perbaikan dalam batch, dapat diselesaikan sebagai berikut:**

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Dengan mendefinisikan μB,σ2B sebagai nilai rata-rata dan variansi dari batch yang ingin kita normalisasi, hal tersebut dapat dilakukan dengan cara:

id/cheatsheet-deep-learning.md Outdated Show resolved Hide resolved
@shervinea shervinea added the reviewer wanted Looking for a reviewer label May 29, 2019
@shervinea
Copy link
Owner

Thanks a lot @swicaksono for all your work! It is really appreciated.

It seems that there are several translations besides the one for the unsupervised-learning cheatsheet. Could you please remove the other ones and place them in separate pull requests? It will make the review process more efficient.

@gitarja
Copy link
Contributor

gitarja commented Oct 10, 2019

Malam Mas @swicaksono

Apakah translasi bisa diteruskan atau bagaimana?
Terimakasih

@swicaksono
Copy link
Author

Malam Mas @swicaksono

Apakah translasi bisa diteruskan atau bagaimana?
Terimakasih

Halo mas @gitarja.
Iya transliterasinya bisa diteruskan mas. Sudah update sampai bagian apa mas?

@gitarja
Copy link
Contributor

gitarja commented Oct 12, 2019

Malam Mas @swicaksono
Apakah translasi bisa diteruskan atau bagaimana?
Terimakasih

Halo mas @gitarja.
Iya transliterasinya bisa diteruskan mas. Sudah update sampai bagian apa mas?

Yang belum yg supervised sama machine learning Mas.
Tolong yang reviews saya diresolve dan dimerge Mas

Terimakasih

@swicaksono
Copy link
Author

swicaksono commented Oct 12, 2019 via email


**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:**

&#10230; **8. Fungsi aktivasi - Fungsi aktivasi di unit hidden terakhir berfungsi untuk menunjukkan kompleksitas non-linear terhadap model. Beberapa yang umum digunakan:**

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Fungsi aktivasi - Fungsi aktivasi digunakan oleh unit tersembunyi untuk menunjukkan kompleksitas non-linear terhadap model. Berikut beberapa model yang umum digunakan:


**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:**

&#10230;**10. Cross-entroy loss - Dalam konteks neural networks, cross-entroy loss L(z,y) sangat umum digunakan untuk mendefinisikan:**

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Cross-entropy loss - Dalam konteks jaringan neural, cross-entropy loss L(z,y) umumnya digunakan dan didefinisikan sebagai berikut:


**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.**

&#10230;**11. Learning rate - Learning rate, sering dinotasikan sebagai α atau η, mendefinisikan seberapa cepat nilai weight diperbaharui. Learning rate bisa diset dengan nilai fix atau dirubah secara adaptif. Metode yang paling terkenal saat ini adalah Adam. Sebuah method yang merubah learning rate secara adaptif.**

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Learning rate - Learning rate, sering dinyatakan dengan α atau terkadang η, menujukkan seberapa cepat nilai weight diperbarui. Laju tersebut bisa diubah atau disesuaikan. Metode paling umum saat ini adalah Adam, sebuah metode yang menyesuaikan dengan learning rate.


**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:**

&#10230;**12. Backpropagation - Backpropagation adalah metode untuk memperbarui bobot dalam neural networks dengan memperhitungkan output aktual dan output yang diinginkan. Bobot w dihitung dengan menggunakan aturan rantai turunan dalam bentuk berikut:**

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Backprogation - Backprogation adalah sebuah metode untuk memperbarui nilai weights pada jaringan neural dengan memperhitungkan keluaran riil dan keluaran yang dikehendaki. Turunan yang berhubungan dengan nilai weight w dihitung dengan menggunakan kaidah rantai dan berbentuk sebagai berikut:

@shervinea shervinea changed the title [id] Unsupervised learning [id] cs-229-unsupervised-learning Oct 6, 2020
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
reviewer wanted Looking for a reviewer
Projects
None yet
Development

Successfully merging this pull request may close these issues.

4 participants