Enlaces y Recursos del eBook: ChatGPT para Principantes

Enlaces y Recursos del eBook: ChatGPT para Principantes

por Jonathan Vásquez (linkedin) y Sebastián Cisterna (linkedin)

¡Muchas gracias por adquirir este eBook! Esperamos que todo lo aprendido sea valioso para tu día a día. Recuerda que cualquier duda que tengas puedes contactarnos en el siguiente correo: contacto@evoacademy.cl.

A continuación te mostramos la lista de enlaces y los artículos que están referenciados al final del eBook. Esta lista mantendrá los enlaces actualizados.

💡
Enlaces rotos y errores
Si encuentras que algún recurso o enlace ya no funciona, o bien algún error en el ebook y deseas hacernos saber, por favor envíanos un correo a la siguiente dirección: contacto@evoacademy.cl.

Redes Sociales 👍

Si estás interesado en el contenido que creamos, puedes visitar nuestras redes sociales en los siguientes enlaces:

Herramientas 🛠️🤖

El eBook está basado en ChatGPT, el cual puedes acceder a él por medio de un navegador:

En donde deberás hacer una cuenta. También puedes descargar la app a tu celular desde las respectivas tiendas para iOS o Android. Te dejamos acá los respectivos enlaces:

También puedes probar los ejercicios en otras herramientas. Debes tener que como cada una tiene sus peculiaridades y que, como ya aprendiste desde el eBook, los resultados pueden ser variados. Independiente de esto, es un muy buen ejercicio comparar los distintos prompts en herramientas similares. Te dejamos acá algunas con las que puedes probar:

Recursos y Referencias 📚

En el eBook usamos los siguientes recursos y referencias:

  • Correos para Ejercicio 1 (Página 13): https://bit.ly/correos-evoacdm
  • 10 Herramientas de Inteligencia Artificial que debes conocer (Página 44): https://www.evoacademy.cl/10-herramientas-de-inteligencia-artificial-para-los-negocios/
  • Referencias
    • Dell'Acqua, Fabrizio et al, Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality (September 15, 2023). Harvard Business School Technology & Operations Mgt. Unit Working Paper No. 24-013.
    • Parte de los prompts mostrados en el eBook se basan en el repositorio de LangChain: https://github.com/langchain-ai/langchain
    • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention Is All You Need. Advances in Neural Information Processing Systems, 30.
    • Wei, J., Wang, X., Schuurmans, D., Bosma, M., Xia, F., Chi, E., ... & Zhou, D. (2022). Chain-of-thought prompting elicits reasoning in large language models. Advances in Neural Information Processing Systems, 35, 24824-24837.
    • Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., ... & Zhou, D. (2022). Self-consistency improves chain of thought reasoning in language models. arXiv preprint arXiv:2203.11171.
    • Yang, C., Wang, X., Lu, Y., Liu, H., Le, Q. V., Zhou, D., & Chen, X. (2023). Large language models as optimizers. arXiv preprint arXiv:2309.03409.