[:en]The “tribes” of machine learning[:es]Las “tribus” (o escuelas) del machine learning[:]

[:en]

That's a Google auto translation. Sorry if there's any mistakes...

It seems that talking about machine learning is talking about a very novel concept that is closely related to artificial intelligence. This term already begins to appear in the strategic reflections when we think about the profiles and technologies that are going to be necessary very soon in our organizations.
And, what is basically a question of determining how machines must learn to interpret the data that we have today, in order to learn from them. Something that, over time, will be much more booming, as it is considered as the future of technology within the computer science.

Pedro Domingos, in his book “The Master Algorithm” describes the five currents or schools that differ in the discipline with which they approach the machine learning, or in other words, depending on the type of solution (seen like algorithm) that Use. The five tribes are: Symbolists, Connectivists, Evolutionists, Bayesians and Analysts. A stream that encompasses what is known as deeplearning, which is nothing more than the set of algorithms that are used to interpret and draw conclusions from an abstract data model.

The inverse deduction of the symbolists

To speak of the symbolist current is the same as to speak of a current that has logic and philosophy as basic and fundamental pillars. From here they practice what is called the inverse deduction. A technique that tries to cover those plots that remain unresolved within the knowledge of the machine.

 

Connectivists and Neuroscience

As for the proponents of the connectivist current, it must be said that they do not believe that logic has much impact on the learning of machines. In their case, they try to create small brains from what they call retropropagation. And is that from the interconnections that allows a structure like that of a brain, as proposed by neuroscience, it is as best you can interpret something as complex as the big data.

 

Evolutionists stick to Darwin

This is a resounding statement. Not in vain are the theories of evolution proposed by Charles Darwin at the time that serve as the basis for learning the machines they want to impose. In this way, they raise the possibility of a learning from several theories, that is, what is involved is that the machine seeks a solution to a problem from several ways. In this way, not only is sought and found a solution, but at the same time also discard some theories that do not serve for that goal.

 

Bayesians betting on probability

The basis of the Bayesians is the theory of probability and statistics. In this case, it is a question of calculating how unlikely it is a fact to be able to discard it as a possible solution. From here, and taking into account that the process is not at all simple, the database will be updated, which is equivalent to a learning process.

 

Analogists and the principle of the whole

Analogists, however, assert that the principle of analogy best sums up what can be regarded as learning. And it is that, as the human being, machines must raise certain analogies to be able to solve the problems that arise. Such analogies will be stored in a database so that, with the passage of time, it takes less time to draw an analogy. A current that is one of the most impactful, as it is one of the simplest to implement at a technical level.

 

As can be verified, there are many approaches from which the machine learning can be applied, obtaining, at least in theory, quite similar results.

 

If you are interested in the subject, you can find these interesting sources:

  • The book of Pedro Domingos: https://www.amazon.com/Master-Algorithm-Ultimate-Learning-Machine/dp/0465065708

[:es]Parece que hablar del machine learning es hablar de un concepto muy novedoso que está estrechamente relacionado con la inteligencia artificial. Este término ya empieza a aparecer en las reflexiones estratégicas cuando pensamos en los perfiles y tecnologías que van a ser necesario muy muy pronto en nuestras organizaciones.
Y es que, de lo que se trata básicamente es de determinar cómo deben aprender las máquinas a interpretar los datos que tenemos a día de hoy, para poder aprender a partir de ellos. Algo que, con el paso del tiempo, estará mucho más en auge, ya que se considera como el futuro de la tecnología dentro de las ciencias de la computación.

(Si quieres saber más sobre machine learning y deeplearning y porqué van a ser clave en el futuro puedes ver mi post anterior aquí.)

Pedro Domingos, en su libro “The Master Algorithm” describe las cinco corrientes o escuelas que se diferencian en la disciplina con la que se acercan al machine learning, o dicho de otro modo, en función del tipo de solución (vista como algoritmo) que usan. Las cinco tribus son: simbolistas, conectivistas, evolutistas, bayesianos y analogistas. Unas corrientes que engloban lo que se conoce como deeplearning, que no es otra cosa que el conjunto de algoritmos que se utilizan para interpretar y sacar conclusiones a partir de un modelo de datos abstracto.

cinco-tribus-escuelas-machine-learning-03

La deducción inversa de las simbolistas

Hablar de la corriente simbolista es lo mismo que hablar de una corriente que tiene la lógica y la filosofía como pilares básicos y fundamentales. A partir de aquí practican lo que se denomina como deducción inversa. Una técnica que trata de ir cubriendo aquellas parcelas que permanecen sin resolver dentro del conocimiento de la máquina.

 

Los conectivistas y la neurociencia

En cuanto a los defensores de la corriente conectivista, hay que decir que no creen que la lógica tenga mucho impacto en el aprendizaje de las máquinas. En su caso, lo que tratan es crear pequeños cerebros a partir de lo que denominan como retropropagación. Y es que a partir de las interconexiones que permite una estructura como la de un cerebro, tal y como propone la neurociencia, es como mejor se puede interpretar algo tan complejo como puede ser el big data.

 

Los evolutistas se ciñen a Darwin

Esta es una afirmación rotunda. No en vano son las teorías de la evolución que propuso en su día Charles Darwin las que sirven de base para el aprendizaje de las máquinas que ellos quieren imponer. De este modo, plantean la posibilidad de un aprendizaje a partir de varias teorías, es decir, de lo que se trata es de que la máquina busque una solución a un problema a partir de varias vías. De este modo, no solo se busca y se encuentra una solución, sino que al mismo tiempo también se descartan algunas teorías que no sirven para dicho objetivo.

 

Bayesianos apostando por la probabilidad

La base de los bayesianos es la teoría de la probabilidad y de la estadística. En este caso, se trata de calcular cómo de improbable es un hecho para poder descartarlo como posible solución. A partir de aquí, y teniendo en cuenta que el proceso no es para nada sencillo, la base de datos se irá actualizando, lo que equivale a un proceso de aprendizaje.

 

Los analogistas y el principio del todo

No obstante, los analogistas aseguran que el principio de analogía es el que mejor resume lo que se puede considerar como aprendizaje. Y es que, como el ser humano, las máquinas deben plantear ciertas analogías para poder dar solución a los problemas que se les plantea. Dichas analogías se irán almacenando en una base de datos de modo que, con el paso del tiempo que transcurre, se tarda menos en trazar una analogía. Una corriente que es una de las que mayor impacto tiene, ya que es una de las más sencillas de implementar a nivel técnico.

 

Como se puede comprobar, son muchas las aproximaciones desde las que se puede aplicar el machine learning obteniendo, al menos en teoría, unos resultados ¿bastante similares?.

 

Si te interesa el tema, puedes encontrar estas fuentes interesantes:

  • El libro de Pedro Domingos: https://www.amazon.com/Master-Algorithm-Ultimate-Learning-Machine/dp/0465065708
  • Template de DigimadMediaDesign

[:]