Revista Informática

Evaluación del uso de Tabnine (herramienta de autocompletado de código) en la creación de modelos de aprendizaje automático

Publicado el 08 febrero 2023 por Daniel Rodríguez @analyticslane
Evaluación del uso de Tabnine (herramienta de autocompletado de código) en la creación de modelos de aprendizaje automático

El autocompletado de código es una funcionalidad que se encuentra en la mayoría de los editores de código modernos. Lo que evita muchos errores y consultas a la documentación. Recientemente han aparecido en el mercado unas soluciones basadas en inteligencia artificial que prometen un paso más allá; no solo completan el código, sino que puede escribir éste de forma automática en base a los comentarios y el contexto. Dos de las más populares son Tabnine y GitHub Copilot. Por eso he decidido probar una de ellas (Tabnine) para ver si pueden ayudar a los científicos de datos para crear modelos de forma más rápida.

Instalación de Tabnine

Una de las ventajas que ofrece Tabnine es la posibilidad de integrar está en prácticamente cualquier entorno de edición de código con el que trabajemos. Incluyendo entre ellos Jupyter Notebook. Por lo que, en la mayoría de los casos no será necesario cambiar de entorno para usar esta herramienta.

La instalación dependerá de editor con el que se desee trabajar. En la mayoría de los casos solo deberemos buscar Tabnine entre los complementos que ofrece nuestro editor, como pude ser VS Code o PyCharm. Para Jupyter Notebook será necesario instalar un paquete mediante pip. Las opciones de integración se pueden encontrar en la documentación del producto. Para esta prueba he usado el Tabnine con DataSpell donde solo ha sido necesario buscar el complemento en la lista de plugin.

Creación de un modelo de regresión lineal

Una prueba que se puede hacer con esta herramienta es ver si es capaz de crear un modelo básico. Por ejemplo, una regresión lineal para lo que debería importar los datos, dividir los datos en entrenamiento y test, entrenar el modelo y medir el rendimiento de este.

Para ello comencé una prueba escribiendo un comentario para cargar los datos de un CSV ( Import data from data.csv), siendo el código propuesto es df = pd.read_csv("data.csv"). La línea es correcta pero no ha agregado la importación de Pandas, algo que ha sido necesario realizar manualmente.

El siguiente paso a la hora de crear el modelo es dividir los datos en entrenamiento y test ( Split data into train and test sets), siendo el código propuesto x_train, x_test, y_train, y_test = train_test_split(df.iloc[:, :-1], df.iloc[:, -1]). Una línea en la que el programa asume que la variable objetivo es la última y usa el resto de columnas, algo que es razonable ya que no se le indicó nada acerca de la naturaleza de los datos.

Ahora se le puede pedir que cree un modelo de regresión lineal ( Fit linear regression model). En este caso, sin que se le diga nada, usa los datos de entrenamiento: model.fit(x_train, y_train).

Finalmente, si solo se le pide que evalúe el modelo lo hace en el conjunto de entrenamiento, pero si se le indica el conjunto lo hace sobre el indicado.

El código que se ha obtenido en la sección es el siguiente (han sido necesario agregar las importaciones para que este sea funcional).

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression

# Import data from data.csv
df = pd.read_csv("data.csv")

# Split data into train and test sets
x_train, x_test, y_train, y_test = train_test_split(df.iloc[:, :-1], df.iloc[:, -1])

# Fit linear regression model
model = LinearRegression()
model.fit(x_train, y_train)

# Evaluate fitted model
print(model.score(x_test, y_test))

# Evaluate fitted model on training data
print(model.score(x_train, y_train))

# Evaluate fitted model on test data
print(model.score(x_test, y_test))

Como se puede ver este es un código básico, posiblemente necesite refinamientos en la mayoría de los casos, pero es un buen punto de partida. Aunque no importe las librerías.

Evitar la necesidad de recordar o consular fórmulas

Otra utilidad de Tabnine es la posibilidad de pedir al código que escriba fórmulas sencillas para nosotros, como la conversión de grado Fahrenheit a Celsius.

# Farenheit to Celsius conversion
def farenheit_to_celsius(farenheit):
    return (farenheit - 32) * (5 / 9)

Aunque hay que tener cuidado con la respuesta, ya que esta es lo que produce cuando se le pide que convierta de grados Celsius a Kelvin

# Celsius to Kelvin conversion
def celsius_to_kelvin(celsius):
    return (celsius + 273.15) * (5 / 9)

¿Qué hace ahí el 5/9? Posiblemente como la mayoría de los casos la conversión sea de Fahrenheit a Celsius, el modelo entiende que esta parte es necesaria. Algo que nos indica que el este no comprende realmente lo que el código, por lo que siempre es necesario validar las soluciones propuestas. Aunque esto es algo que posiblemente mejore con el tiempo.

Conclusiones

Tabnine puede ser una ayuda a la hora de crear modelos, aunque es algo que no recomiendo para principales ya que es necesario entender lo que se desea hacer para ver si el resultado es válido. En los ejemplo se ha visto que algunas fórmulas básicas no las implementa bien.

Posiblemente estas herramientas dentro de unos años sean como el autocompletado de código hoy en día. Algo que nos ayude a implementar los análisis de una forma más rápida, pero que aún está lejos de poder sustituir completamente a un científico de datos.


Volver a la Portada de Logo Paperblog